<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="de">
	<id>https://wiki.atlaws.eu/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Walter</id>
	<title>RI Wiki - Benutzerbeiträge [de]</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.atlaws.eu/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Walter"/>
	<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php/Spezial:Beitr%C3%A4ge/Walter"/>
	<updated>2026-05-01T04:09:09Z</updated>
	<subtitle>Benutzerbeiträge</subtitle>
	<generator>MediaWiki 1.43.6</generator>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4399</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4399"/>
		<updated>2025-12-09T15:00:46Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Zentrale Inhalte */ Governance und Aufsicht hinzugefügt&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. Februar 2025 (schrittweise)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen von KI-Systemen &lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung mit der RL über außervertragliche Haftung ([[KI-Haftungsregelungen|AILD, &amp;lt;mark&amp;gt;von der Kommission zurückgezogen&amp;lt;/mark&amp;gt;]])&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modelle (general purpose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB Verarbeitung zur Vermeidung von Verzerrungen, Art 10), regulatory sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (zB Anbieter- und Betreiberpflichten, Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz (eingeschränkt); reine Forschungszwecke &lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) gelten seit 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (zB Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|Gewährleistung von Transparenz und Verantwortlichkeit&lt;br /&gt;
|Pflichten für Betreiber (professionelle Nutzer*innen) und Anbieter&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (zB Chatbots, Deepfakes)&lt;br /&gt;
|Informationspflichten nach der DSGVO&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
&amp;lt;mark&amp;gt;Der AI Act ist die erste EU-weite, sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) und&amp;lt;/mark&amp;gt; folgt dabei primär einem produktsicherheitsrechtlichem Ansatz, dessen vorrangiges Regulierungsziel die Sicherheit von KI-Systemen und Modellen ist. &amp;lt;mark&amp;gt;Damit ist er Teil des sog [https://single-market-economy.ec.europa.eu/single-market/goods/new-legislative-framework_en?prefLang=de &amp;quot;New Legislative Framework&amp;quot;] (NLF), einem unionsrechtlichen Maßnahmenpaket zur Produktregulierung, das auf die Verbesserung der Marktüberwachung abzielt und sich durch einheitliche Kernelemente auszeichnet (zB Konformitätsbewertungsverfahren, Selbstregulierung, Standards und einheitliche Anforderungen). Im Rahmen des Gesetzgebungsprozesses wurde der Rechtsakt - insbesondere auf Bestreben des Europäischen Parlaments - um menschenrechtliche Aspekte und Betroffenenrechte erweitert, weshalb der AI Act mittlerweile deutlich über reines Produktsicherheitsrecht hinausgeht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modelle&#039;&#039;&#039; bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot;.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei handelt es sich um &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;ableitet&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot;&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe Art 3 Z 1 AI Act. Hervorhebungen nicht im Original. &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;abzuleiten&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Hingegen soll sich nach ErwGr 12 der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen [...]&amp;quot;, womit auf eine Abgrenzung von KI von herkömmlichen Softwarelösungen und Programmierungsansätzen abgezielt wird.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zusammenfassend möchte der EU-Gesetzgeber mit dieser Definition einerseits Rechtssicherheit schaffen, allerdings immer noch Raum für technologischen Fortschritt lassen, um den Anwendungsbereich des AI Act nicht von Vornherein vor potenziellen künftigen technologischen Entwicklungen zu verschließen.&amp;lt;/mark&amp;gt; Dennoch wurde die Definition als zu vage und unbestimmt empfunden. So wurden diverse Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Um den Begriff des KI-Systems also zu konkretisieren und Unsicherheiten zu beseitigen, sollte die Kommission gemäß Art 96 Abs 1 lit f AI Act Leitlinien vorlegen, und damit eine einheitliche Anwendung des Regelwerks fördern sowie Rechtsicherheit gewährleisten&amp;lt;/mark&amp;gt;.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle, &amp;lt;mark&amp;gt;einfache Datenverarbeitungssysteme, auf klassische Heuristik gestützte Systeme, einfache Vorhersagesysteme etc.&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Eine Positiv-Liste, welche Systeme jedenfalls unter den KI-Begriff fallen, enthalten die Leitlinien allerdings nicht. Sie orientieren sich vielmehr an den 7 Kernelementen der KI-Definition gemäß Art 3 Z 1 AI Act. Es wird überdies betont, dass nicht alle Elemente kontinuierlich in den beiden Hauptphasen des Lebenszyklus von KI (&amp;quot;building phase&amp;quot; / &amp;quot;pre-deployment&amp;quot; oder &amp;quot;use phase&amp;quot; / &amp;quot;post-deployment&amp;quot;) vorhanden sein müssen und, dass sich die Leitlinien kontinuierlich weiterentwickeln sollen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Folgende Konkretisierungen der KI-Definition und Beispiele sind den Leitlinien zu entnehmen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Elemente der KI-Definition&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Erläuterungen in den Leitlinien der EU-Kommission&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Maschinengestütztes System&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;KI benötigt Hardware- und Softwarekomponenten&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB eine Hardwareinfrastruktur wie processing units, Speicher, Input/Output-Schnittstellen und Software (Code, Programme etc.)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;autonomer Betrieb (in unterschiedlichem Grade)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erfordert einen gewissen Grad an Unabhängigkeit von menschlichem Eingreifen, wobei Systeme, die vollständig manuelle menschliche Interaktion erfordern, nicht darunter fallen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Umfasst sind Systeme, die zwar einen manuellen Input erfordern, aber von selbst einen Output generieren (zB Chatbots)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anpassungsfähigkeit nach Betriebsaufnahme (optional)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Selbstlernfähigkeiten (nicht zwingend erforderlich); darunter versteht man, ob sich das Verhalten des Systems während seiner Verwendung anpassen oder verändern kann (zB automatisches Lernen, wie Muster oder Beziehungen zwischen Daten erkannt werden können).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungsfähigkeit&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Inferenz, Schlüsseleigenschaft; dient der Abgrenzung von KI-Systemen von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen. Nicht umfasst sind hingegen Systeme, die nur von Menschen programmierten Regeln folgen und automatisiert Operationen ausführen. Die Ableitungsfähigkeit bedeutet daher die Erlernung allgemeiner Konzepte statt fester, vorprogrammierter Regeln.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Bsp: maschinelles Lernen, logik- und wissensgestützte Systeme (Schlussfolgerungen mittels Deduktion oder Induktion)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitung aus Eingaben für implizite oder explizite Ziele&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungen müssen nach entweder:&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;expliziten Zielen (klar definierte, direkt in den Code programmierte Ziele, Optimierung von Kostenfunktionen, Wahrscheinlichkeitsberechnung) oder&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;impliziten Zielen (Ableitung des Ziels aus dem Verhalten oder den dahinterstehenden Annahmen des Systems; bspw Trainingsdaten oder Interaktion des Systems mit Umwelt) erfolgen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erzeugung von Ausgaben&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ausgabe-Arten umfassen unter anderem&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Vorhersagen (Schätzungen unbekannter Werte basierend auf komplexen Datenmustern)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Inhalte (Texte, Bilder, Videos oder Musik)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Empfehlungen (Vorschläge für Maßnahmen, Produkte oder Dienstleistungen, die hochgradig personalisiert sind und Massendaten nutzen).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Entscheidungen (Vollautomatisierte Schlussfolgerungen oder Auswahlentscheidungen, die Prozesse automatisieren, die üblicherweise menschlichem Urteilsvermögen vorbehalten sind)&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;zB die generierten Inhalte von Chatbots, Produktvorschläge, Echtzeit-Vorhersagen, Auswahlentscheidungen&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Beeinflussung physischer oder virtueller Umgebungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Frage, ob das System einen aktiven Einfluss auf die Umgebungen hat, in denen es eingesetzt wird, sei es auf materielle physische Objekte oder auf digitale Räume&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB Roboterarm, Software-Ökosysteme, Datenströme&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}  &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI-Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit aus, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). &amp;lt;mark&amp;gt;Man kann hier den Vergleich zu einem KFZ ziehen, wobei das KI-Modell den Motor darstellt, der die eigentliche &amp;quot;Arbeit&amp;quot; leistet. Um jedoch fahrtüchtig zu sein, bedarf es nicht nur eines Motors, sondern das Fahrzeug benötigt darüber hinaus eine Karosserie, Räder, ein Lenkrad etc. Das wiederum bezeichnet das KI-System, welches das Modell erst durch seine Schnittstellen, seine Benutzeroberfläche etc. &amp;quot;fahrtüchtig&amp;quot; und damit nutzbar macht.&amp;lt;/mark&amp;gt; Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen &amp;quot;Nutzer&amp;quot;) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder sich in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollen:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität), unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act trat am &#039;&#039;&#039;1. August 2024&#039;&#039;&#039; in Kraft und wird generell am &#039;&#039;&#039;2. August 2026&#039;&#039;&#039; anwendbar (Art 113 AI Act). Gestaffelt erlangen einige Bestimmungen jedoch bereits vorab oder danach Geltung:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab &#039;&#039;&#039;2. August 2025&#039;&#039;&#039;&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem &#039;&#039;&#039;2. August 2027&#039;&#039;&#039;&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 111 Abs 2 AI Act enthält dabei jedoch eine sog „grandfathering“-Klausel, nach welcher der AI Act für Betreiber von Hochrisiko-KI-Systemen, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, nur dann gilt, wenn diese Systeme danach in ihrer Konzeption erheblich verändert wurden.&amp;lt;ref&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 23, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Verpflichtung zur Maßnahmenergreifung gilt für Betreiber und Anbieter gleichermaßen und ist ferner unabhängig von der Risikoklasse der infragestehenden KI-Anwendung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Unter KI-Kompetenz versteht man grundsätzlich &amp;quot;die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.&amp;quot;&amp;lt;ref&amp;gt;Vgl die Definition in Art 3 Z 56 AI Act.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dies umfasst die notwendigen Kompetenzen, um fundierte Entscheidungen über KI-Systeme zu treffen, technische Elemente zu verstehen sowie korrekt anzuwenden, die Auswirkungen von KI-basierten Entscheidungen auf Betroffene zu verstehen und KI-generierte Ausgaben angemessen zu interpretieren.&amp;lt;ref name=&amp;quot;:1&amp;quot;&amp;gt;Vgl ErwGr 20 AI Act. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dazu gehört auch, den einschlägigen Akteuren der KI-Wertschöpfungskette jene erforderlichen Kenntnisse zu vermitteln, um die Einhaltung und Durchsetzung der Vorschriften des AI Act zu gewährleisten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Weitere Konkretisierungen oder zwingende Mindestvorgaben für die Sicherstellung der KI-Kompetenz enthält der AI Act allerdings nicht und betont sogar, dass die Konzepte der KI-Kompetenz in Bezug auf den jeweiligen Kontext unterschiedlich sein können.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:1&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Die EU-Kommission hat daher ein [https://digital-strategy.ec.europa.eu/de/library/living-repository-foster-learning-and-exchange-ai-literacy &amp;quot;Living Repository&amp;quot;] angelegt, in dem Unternehmen ihre Praktiken in Bezug auf KI-Kompetenz eingetragen haben. Das Repository wird laufend ergänzt, ist jedoch nicht rechtsverbindlich. Weiters bilden die darin enthaltenen Praktiken keine Garantie zur Compliance mit Art 4 AI Act, allerdings stellen sie eine gute Orientierung dar, welche Maßnahmen zur Sicherstellung von KI-Kompetenz in unterschiedlichen Branchen bereits ergriffen werden. Häufig genannte Praktiken umfassen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne eLearning-Plattformen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne Weiterbildungen und Trainingsprogramme,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Kenntnis-basierte Schulungen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Video-/Podcast-Reihen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;spielebasierte Trainings,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Erstellung von KI-Verhaltenskodizes und Risikobewertungssystemen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;eigene Chatbots zum Training im Umgang mit Sprachmodellen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Denkbar ist überdies die Teilnahme an externen Fortbildungen und Schulungen, die Entwicklung von internen Richtlinien (&amp;quot;KI-Guidelines&amp;quot;) oder die Schaffung von sog &amp;quot;KI-Beauftragten&amp;quot; in der Organisation. Ob die Schulungsmaßnahmen fortlaufend zu erfolgen haben, ist rechtlich nicht vorgeschrieben, wird allerdings anzunehmen sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Dieser Ansicht folgend: &#039;&#039;Siglmüller&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 4 KI-Kompetenz Rz 5.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Ebensowenig sind die genauen Inhalte der Kompetenzvermittlungsmaßnahmen definiert. Es kann jedenfalls davon ausgegangen werden, dass diese zielgruppengerecht und zugeschnitten auf unterschiedliche Bedürfnisse erfolgen sollten. Weiters werden sie sich bei manchen Branchen, KI-Einsatzgebieten oder Personengruppen nicht lediglich auf rechtliche oder technische Anforderungen beschränken, sondern ebenso soziale und ethische Komponenten umfassen. Bei der Entwicklung und Nutzung von GPAI-Modellen wird beispielsweise die Vermittlung von Kenntnissen im Zusammenhang mit Urheberrecht, Datenschutz, &amp;quot;Bias&amp;quot; (Verzerrungen) oder &amp;quot;Halluzinationen&amp;quot; (erfundene falsche Ausgaben) sinnvoll sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger,&#039;&#039; Wissenskultur im KI-Zeitalter – eine Auseinandersetzung mit der KI-Kompetenz nach Art 4 AI Act und ihren praktischen Implikationen, ZIIR 2025, 250.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die EU-Kommission hat darüber hinaus eine [https://digital-strategy.ec.europa.eu/de/faqs/ai-literacy-questions-answers &amp;quot;FAQ-Seite&amp;quot;] mit Fragen und Antworten zur KI-Kompetenz angelegt, um einen besseren Überblick über die Anforderungen zu geben.&amp;lt;/mark&amp;gt;    &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten, &amp;lt;mark&amp;gt;da sie besonders schädlich sind, enormes Missbrauchspotenzial aufweisen und im Widerspruch zu europäischen Grundrechten und Grundfreiheiten stehen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 28 AI Act.&amp;lt;/mark&amp;gt; MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt; (Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt; Folgende Praktiken sind davon umfasst: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Praktik&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Nicht erfasste Praktiken&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsgrundlage&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Unterschwellige Beeinflussung außerhalb des Bewusstseins oder manipulative/täuschende Techniken&#039;&#039;&#039;, wodurch die freie Entscheidungsfähigkeit von Personen beeinträchtigt wird und ein Schaden mit hinreichender Wahrscheinlichkeit eintritt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ableitung sensibler Informationen aus Gehirnen von Nutzern über Maschine-Gehirn-Schnittstellen&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 29 AI Act sowie Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 66.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Chatbots, die zur Selbstverletzung verleiten&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 87.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Unterschwellige visuelle oder auditive Reize bzw generelle sensorische Manipulation&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 65 und 68.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erlaubt ist hingegen der Einsatz eines KI-Systems, das personalisierte Empfehlungen auf der Grundlage transparenter Algorithmen und Nutzerpräferenzen verwendet, und sich nicht absichtlich manipulativer Techniken bedient.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 128.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit a&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Ausnutzen der Vulnerabilität/Schutzbedürftigkeit&#039;&#039;&#039; aufgrund des Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine KI-Begleit-App, die durch gewisse Sprachmuster und Verhaltensweisen gezielt emotionale Abhängigkeiten und ungesunde Bindungen bei älteren Menschen erzeugt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-gestütztes Spielzeug, das Kinder zu riskanten Herausforderungen ermutigt oder durch süchtig machende Techniken zu übermäßigem Spielen anregt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte &amp;quot;Grooming-Praktiken&amp;quot; (gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht), um Mädchen mit Behinderung im Internet anzusprechen und zu manipulieren&amp;lt;ref&amp;gt;Vgl Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 88 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Kinder beim Lernen einer Fremdsprache durch den Einsatz unterschwelliger Techniken unterstützen soll, sofern sie transparent arbeitet und die Nutzerautonomie wahrt.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Benommenheit und Ermüdung bei Fahrern erkennen und sie im Einklang mit den Sicherheitsvorschriften mit Warnmeldungen auf Ruhepausen hinweisen, gelten ebenso nicht als Ausnutzung von Vulnerabilitäten.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 130ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit b&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social scoring&#039;&#039;&#039; (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Verwendung eines KI-Systems zur Schätzung der Betrugswahrscheinlichkeit bei Empfängern von Haushaltszulagen durch das Sozialamt, das sich auf Merkmale stützt, die in sozialen Kontexten ohne offensichtlichen Zusammenhang mit oder Relevanz für die Bewertung von Betrug erhoben oder abgeleitet werden, wie zB ein Ehepartner mit einer bestimmten Staatsangehörigkeit oder ethnischen Herkunft, der Besitz eines Internetanschlusses, das Verhalten auf sozialen Plattformen oder die Leistung am Arbeitsplatz etc.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems durch eine öffentliche Stelle, um für die Früherkennung gefährdeter Kinder anhand von Kriterien wie der psychischen Gesundheit und Arbeitslosigkeit der Eltern, aber auch anhand von aus verschiedenen Kontexten abgeleiteten Informationen über das soziale Verhalten der Eltern Familienprofile zu erstellen. Auf der Grundlage der erzielten Bewertung werden Familien für Kontrollen ausgewählt und als „gefährdet“ geltende Kinder werden aus ihren Familien genommen, unter anderem auch in Fällen geringfügiger Übertretungen seitens der Eltern, wie zB gelegentlich verpasste Arzttermine oder verhängte Verkehrsstrafen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine Regierung führt ein umfassendes KI-gestütztes System ein, das die Bürgerinnen und Bürger auf der Grundlage ihres Verhaltens in verschiedenen Lebensbereichen wie sozialen Interaktionen, Online-Aktivitäten, Kaufgewohnheiten und Pünktlichkeit bei der Begleichung von Rechnungen überwacht und einstuft. Menschen mit einer niedrigeren Bewertung müssen damit rechnen, dass sie eingeschränkten Zugang zu öffentlichen Dienstleistungen erhalten, höhere Zinsen auf Kredite zahlen und auf Reisen und bei der Suche nach einer Wohnung oder sogar einem Arbeitsplatz Schwierigkeiten haben.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 166 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Bonitätsprüfung natürlicher Personen auf Basis persönlicher Merkmale wie dem Einkommen vor Vergabe eines Kredits.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basierte Erhebung von Geschwindigkeitsüberschreitungen oder hochriskantem Fahrverhalten, die zur Erhöhung der KFZ-Versicherungsprämien führen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte gezielte kommerzielle Werbung fällt nicht in den Anwendungsbereich, wenn sie auf relevanten Daten (z. B. Nutzerpräferenzen) beruht, im Einklang mit den Rechtsvorschriften der Union über Verbraucherschutz, Datenschutz und digitale Dienste erfolgt und nicht zu einer Schlechterstellung oder Benachteiligung führt, die in keinem angemessenen Verhältnis zur Tragweite des sozialen Verhaltens des Nutzers steht (z. B. ausbeuterische und unfaire differenzierte Preisgestaltung).&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 177.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit c&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Bewertung des Risikos, dass eine Person eine Straftat&#039;&#039;&#039; begeht (ausschließlich aufgrund von Profiling)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Eine Polizeidienststelle verwendet KI-gestützte Risikobewertungsinstrumente, um das Risiko zu bewerten, dass kleine Kinder und Jugendliche an „künftigen Gewalttaten und Eigentumsdelikten“ beteiligt sein werden. Das System bewertet Kinder auf der Grundlage ihrer Beziehungen zu anderen Menschen und deren vermeintlichen Risikoniveaus, dh es wird eventuell davon ausgegangen, dass bei Kindern ein höheres Risiko für die Begehung von Straftaten besteht, einfach weil sie mit einer anderen Person wie einem Geschwisterkind oder einem Freund verbunden sind, bei der eine hohe Risikobewertung vorliegt. Das Risikoniveau der Eltern kann sich ebenfalls auf das Risikoniveau eines Kindes auswirken.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 202.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Standortbezogene oder geodatenbasierte Vorhersagen oder ortsbezogene Verbrechensvorhersagen (zB KI-System zur Berechnung der Kriminalitätswahrscheinlichkeit in bestimmten Stadtgebieten oder von Schmuggelrouten)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Unterstützung der durch Menschen durchgeführten Bewertung, die sich auf objektive und überprüfbare Tatsachen stützt, die in Zusammenhang mit einer kriminellen Aktivität stehen (zB Profiling zur Vorhersage gefährlichen Verhaltens in einer Menschenmenge, KI-basiertes Profiling von Personen, gegen die bereits ein Verdacht besteht, der auf mehreren überprüfbaren, objektiven Tatsachen beruht).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basiertes Profiling in Bezug auf juristische Personen&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur individuellen Vorhersage von Ordnungswidrigkeiten (zB Bagatellverkehrsdelikte)&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 212 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit d&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erstellung/Erweiterung von &#039;&#039;&#039;Datenbanken&#039;&#039;&#039; zur Gesichtserkennung durch &#039;&#039;&#039;ungezieltes Auslesen von Gesichtsbildern&#039;&#039;&#039;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen für Gesichtserkennungssoftware sammelt Bilder von Gesichtern, die mit einem „automatisierten Bildausleser“, der das Internet durchsucht und Bilder mit menschlichen Gesichtern erkennt, aus sozialen Medien (zB Facebook, X) ausgelesen wurden. Der Bildausleser sammelt diese Bilder mit allen damit verbundenen Informationen (wie der Quelle des Bildes (URL), der Geolokalisierung und manchmal den Namen der einzelnen Personen). Die Gesichtsmerkmale werden dann aus den Bildern extrahiert und in mathematische Darstellungen umgewandelt, die für die Indexierung und den künftigen Vergleich mit Hashtags versehen werden. Wenn ein Nutzer das Bild einer Person in das KI-System hochlädt, wird dieses System bestimmen, ob dieses Bild mit einem Gesicht in der Datenbank übereinstimmt.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 232.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Das ungezielte Auslesen anderer biometrischer Daten als Gesichtsbilder (zB Stimmaufnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Gesichtsbilddatenbanken, die nicht für die Erkennung von Personen verwendet werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Gesichtsbilder aus dem Internet sammeln, um KI-Modelle zur Erzeugung neuer Bilder fiktiver Personen zu entwickeln&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit e&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Emotionserkennungssysteme&#039;&#039;&#039; am Arbeitsplatz oder in Bildungseinrichtungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das beispielsweise aus Gesten, Stirnrunzeln oder fehlendem Lächeln ableitet, dass ein Mitarbeiter unglücklich, traurig oder gegenüber den Kunden wütend ist&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Systeme, die aus Stimmführung oder Körpersprache ableiten, dass ein Schüler zornig und im Begriff ist, gewalttätig zu werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Emotionen aus Tastenanschlägen (Art des Tippens), Gesichtsausdrücken, Körperhaltungen oder Bewegungen ableitet, beruht auf biometrischen Daten und fällt in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die den emotionalen Ton in hybriden Arbeitsteams überwachen, indem sie Emotionen aus Stimm- und Bildaufnahmen hybrider Videokonferenzen erkennen und ableiten, was in Regel der Förderung des sozialen Bewusstseins, des Managements emotionaler Dynamik und der Konfliktverhütung dienen würde&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems bei Online-Prüfungen zur Erkennung von Emotionen wie Erregungs- und Angstzustände&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung zur Bewertung des Wohlbefindens, des Motivationsniveaus und der Arbeits- oder Lernzufriedenheit von Studierenden oder Arbeitnehmern.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der Einsatz von KI-Erkennungssystemen, um auf die Ermüdung eines Berufspiloten oder -fahrers zu schließen, ihn zu warnen und ihm zu empfehlen, zur Vermeidung von Unfällen Pausen einzulegen, da Emotionserkennung keine physischen Zustände wie Schmerzen oder Ermüdung einschließt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das aus schriftlichen Texten (Analysen von Inhalt und Stimmung) Emotionen ableitet, um den Stil oder den Ton eines bestimmten Artikels zu bestimmen, beruht nicht auf biometrischen Daten und fällt daher nicht in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Werden Emotionserkennungssysteme nur zu persönlichen Schulungszwecken eingesetzt, sind sie zulässig, sofern die Ergebnisse nicht Personen mit Personalverantwortung zur Verfügung gestellt werden und keine Auswirkungen auf das Arbeitsverhältnis haben&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die durch eine Bildungseinrichtung erfolgende Verwendung einer KI-gestützten Software zur Verfolgung der Augenbewegungen bei Online-Prüfungen Studierender, um den Fixierungspunkt und die Bewegung der Augen zu verfolgen (um beispielsweise zu erkennen, ob unerlaubtes Material verwendet wird), ist nicht verboten, da das System Emotionen weder erkennt noch ableitet&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung aus medizinischen Gründen zur Unterstützung von Arbeitnehmern oder Studierenden mit Autismus und zur Verbesserung der Barrierefreiheit für blinde oder gehörlose Menschen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit f&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Kategorisierung,&#039;&#039;&#039; Ableitung von sensiblen Daten (religiöse Weltanschauung, politische Einstellung)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Personen, die auf einer Plattform sozialer Medien aktiv sind, nach ihrer angenommenen politischen Ausrichtung kategorisiert, indem es die biometrischen Daten der von ihnen auf die Plattform hochgeladenen Fotos analysiert, um ihnen gezielte politische Nachrichten zu übermitteln&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;ein System zur biometrischen Kategorisierung, das für sich in Anspruch nimmt, die religiöse Ausrichtung einer Person aus ihren Tätowierungen oder ihrem Gesicht ableiten zu können.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 280 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die mit der Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze, auch zu Strafverfolgungszwecken, befasst sind (zB bei Verdacht auf Darstellungen sexuellen Kindesmissbrauchs)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;die Kategorisierung von Patienten, bei der Bilder nach ihrer Haut- oder Augenfarbe verwendet werden, für medizinische Diagnosen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 284 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit g&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Echtzeit-Fernidentifizierungssysteme&#039;&#039;&#039; in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die polizeiliche Verwendung von Systemen zur biometrischen Echtzeit-Fernidentifizierung zu dem Zweck, Ladendiebe zu identifizieren und ihre Gesichtsbilder mit Kriminaldatenbanken zu vergleichen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 328.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung von Echtzeit-Gesichtserkennungstechniken durch die Polizei nach einem schweren Terroranschlag auf einen Weihnachtsmarkt mit zwölf Toten, um den Täter zu identifizieren und festzustellen, wohin er flieht. In diesem Zusammenhang nutzen sie auch die Echtzeit-Gesichtserkennungstechnik des nahe gelegenen Bahnhofs und der Zielbahnhöfe der Züge, die kurz nach dem Angriff von dort abgehen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 354.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit h&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&amp;lt;br /&amp;gt;&lt;br /&gt;
Einige dieser Praktiken sind darüber hinaus bereits nach anderen Rechtsvorschriften verboten, so beispielsweise gewisse manipulative und täuschende Techniken als &amp;quot;dark patterns&amp;quot; nach dem [[Digital Services Act (DSA)|Digital Services Act]] (gilt nur für bestimmte Plattform-Anbieter) oder die Verarbeitung biometrischer Daten zur Identifizierung einer Person nach Art 9 Abs 1 DSGVO, sofern keine der in Abs 2 genannten Ausnahmen vorliegt. Gemäß der neuen Plattformarbeitsrichtlinie&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Richtlinie (EU) 2024/2831 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit, ABl L 11. 11. 2024.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;, die bis Dezember 2026 in nationales Recht umzusetzen ist, ist überdies der Einsatz von automatisierten Überwachungs- und Entscheidungssystemen zur Erfassung personenbezogener Daten über den emotionalen oder psychischen Zustand einer Person (Emotionserkennung) verboten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;MwN &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2024) Art 5 Rz 104.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act klassifiziert Hochrisiko-KI-Systeme in Art 6. Dabei kennt er zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige&amp;quot; Hochrisiko-KI-Systeme bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei folgenden Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder stellt selbst ein solches Produkt dar&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten: bspw biometrische Identifizierung, kritische Infrastrukturen, grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle, Justiz und demokratische Prozesse.  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis einer Entscheidungsfindung, an der das System beteiligt ist, wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot; &amp;lt;mark&amp;gt;Als Profiling gilt dabei iSd Art 4 Abs 4 DSGVO jede automatisierte Verarbeitung personenbezogener Daten, die darin besteht, bestimmte persönliche Aspekte einer Person zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, Gesundheit, persönliche Vorlieben, Zuverlässigkeit, Verhalten etc. zu analysieren oder vorherzusagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Europäische Kommission hat im Rahmen von Public Consultations unter anderem auch Rückmeldungen zu Anforderungen an Hochrisiko-KI-Systeme eingeholt, die eine Grundlage für Leitlinien bilden sollen, welche im Februar 2026 veröffentlicht werden sollen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;European Commission, Commission launches public consultation on high-risk AI systems, https://digital-strategy.ec.europa.eu/en/news/commission-launches-public-consultation-high-risk-ai-systems (Stand 6.6.2025).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Pflichten für Betreiber von Hochrisiko-KI-Systemen&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Betreiberpflichten nach Art 26 AI Act&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis &amp;lt;mark&amp;gt;([https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#KI-Kompetenz/AI_literacy_(Art_4_AI_Act) &amp;quot;KI-Kompetenz&amp;quot;] nach Art 4&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 40. &amp;lt;/ref&amp;gt;)&amp;lt;/mark&amp;gt; verfügen und ihnen die erforderliche Unterstützung zukommen lassen. &lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von automatisiert erzeugten &#039;&#039;&#039;Protokollen&#039;&#039;&#039; &amp;lt;mark&amp;gt;für einen Zeitraum von zumindest 6 Monaten (wobei hier entgegenstehende datenschutzrechtliche Regelungen vorgehen würden&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 42.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;)&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, vor Verwendung oder Inbetriebnahme des Hochrisiko-KI-Systems am Arbeitsplatz. &amp;lt;mark&amp;gt;Dies umfasst sowohl den Einsatz von &amp;quot;eingebetteten&amp;quot; als auch &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Weiters sind die Mitwirkungspflichten des Betriebsrats zu berücksichtigen (vgl §§ 96 f ArbVG). Nicht umfasst sind wahrscheinlich Informationspflichten gegenüber Bewerbern, da diese tendenziell nicht unter den von dieser Bestimmung geforderten &amp;quot;Arbeitnehmer-Begriff&amp;quot; fallen&amp;lt;/mark&amp;gt;.&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet. &amp;lt;mark&amp;gt;Diese Bestimmung gilt lediglich für den Einsatz von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen nach Art 6 Abs 2 iVm Anhang III.Die danach mitzuteilende Information sollte die Zweckbestimmung und die Art der getroffenen Entscheidung beinhalten (vgl ErwGr 93) sowie - nach einer hier vertretenen Auffassung - eine vorab Information über das Recht auf Erklärung nach Art 86 AI Act, welches von KI-Entscheidungen Betroffenen das Recht zugesteht, unter gewissen Voraussetzungen vom Betreiber eine klare und aussagekräftige Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess sowie zu den wichtigsten Elementen der getroffenen Entscheidung zu erhalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe die entsprechende Argumentationslinie im Detail: &#039;&#039;Research Institute&#039;&#039;, Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025) 100 ff, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.  &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das KI-Büro wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 27 Abs 4 macht überdies die Verzahnung der Grundrechte-Folgenabschätzung (GRFA) mit anderen Folgenabschätzungen deutlich und schreibt bspw vor, dass bei Vorliegen einer Datenschutz-Folgenabschätzung nach Art 35 DSGVO die GRFA diese ergänzen bzw in diese integriert werden solle.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Piltz/Zwerschke&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 27 Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme Rz 32.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Sowohl die Verpflichtungen nach Art 26 als auch die Durchführung einer GRFA nach Art 27 treffen den Betreiber unabhängig davon, ob jemand (bspw Betroffene) deren Einhaltung einfordern. Im Unterschied dazu enthält der AI Act in den Artt 85 ff sog &amp;quot;Betroffenenrechte&amp;quot;, die aktiv von betroffenen Personen geltend zu machen sind. Dazu zählt insbesondere das [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Recht auf Erklärung nach Art 86], welches das einzige Betroffenenrecht darstellt, das direkt gegen den Betreiber durchsetzbar ist.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführer oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn die genannten Personen ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen;&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt;&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das &#039;&#039;nicht&#039;&#039; als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird.&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter (Erstanbieter) nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat jedoch mit dem neuen Anbieter zusammenzuarbeiten, insb Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI Act muss beachtet werden, dass die Rollenverteilung eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters erfolgt, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden &amp;lt;mark&amp;gt;sowie den Anforderungen an die Barrierefreiheit genügen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots, &amp;lt;mark&amp;gt;Sprachassistenten, Social Bots)&amp;lt;/mark&amp;gt;, sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Pflicht kann entfallen, wenn die Interaktion mit dem KI-System aus Sicht einer angemessen informierten, aufmerksamen und verständigen Person offensichtlich ist oder beim Einsatz von KI-Systemen, die für die Strafverfolgung zugelassen sind.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 43.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
*&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 40.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Chatbots&#039;&#039;&#039; können durch einen textlichen Hinweis zu Beginn des Gesprächs oder ein dauerhaft angezeigtes grafisches Symbol vorgestellt werden.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Bei &#039;&#039;&#039;Voicebots&#039;&#039;&#039; kommt eine der Interaktion vorausgehende Ansage, welche auf den KI-Einsatz hinweist, in Betracht.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social Bots&#039;&#039;&#039; können eine Information vor und mit jeder Interaktion des Bots in sozialen Netzwerken erfordern, da das System stets mit einem neuen Personenkreis in Interaktion tritt (zB AI-Influencer).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Das KI-Büro hat am 5. November 2025 Arbeiten an einem Verhaltenskodex in Bezug auf die Kennzeichnung von KI-generierten Inhalten aufgenommen. Die entsprechenden Leitlinien werden in einem siebenmonatigen Prozess, der sich insbesondere durch die Einbindung von relevanten Stakeholdern und öffentliche Konsultationen auszeichnen soll, erarbeitet werden. Näheres unter: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Mögliche Methoden wären bspw Wasserzeichen, Metadatenidentifizierungen, Kryptografische Methoden (zB &amp;quot;Hashing&amp;quot;), Protokollierungsmethoden oder Fingerabdrücke.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 133 Satz 4 sowie mwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 84 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Denkbar ist bspw eine Umsetzung in Form eines sichtbaren Wasserzeichens, eines textlichen Hinweises, durch Hinzufügen von sog C2PA-Content Credentials&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Die C2PA („Coalition forContent Provenanceand Authenticity“) ist ein branchenübergreifendes Non-profit-Projekt, das die Entwicklung gemeinsamer technischer Standards zur Ermittlung der Herkunft von digitalen Inhalten zum Ziel hat. Siehe dazu https://c2pa.org/. So hat sich bspw LinkedIn bei der Erkennung KI-generierter Inhalte diesen Standards unterworfen: https://www.linkedin.com/help/linkedin/answer/a6282984. MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 150.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;oder bei Audioinhalten durch eine Ansage zu Beginn des Audioinhalts.&amp;lt;ref&amp;gt;&#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 148 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Verpflichtung entfällt, wenn die betreffenden Inhalte vor ihrer Veröffentlichung einer menschlichen oder redaktionellen Kontrolle unterzogen wurden und eine Person die redaktionelle Verantwortung dafür trägt. Da die Anforderungen an die menschliche bzw redaktionelle Kontrolle nicht konkretisiert werden, unterwerfen sich bspw im journalistischen Bereich zahlreiche Medien freiwilligen Leitlinien (so etwa die [https://www.blm.de/files/pdf2/ki-leitlinien.pdf Leitlinien des Medienrats der Bayerischen Landeszentrale für neue Medien (BLM) zum Einsatz von Künstlicher Intelligenz im Journalismus]).&amp;lt;ref&amp;gt;MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 163 f.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als &amp;quot;KI-Systeme mit minimalem Risiko&amp;quot; bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf den sprunghaften Durchbruch generativer KI-Modelle, die für viele verschiedene Zwecke eingesetzt werden können, in den Jahren 2022 und 2023 wurden unter Durchbrechung des bisherigen zweck- und risikoorientierten Regelungsansatzes im Entwurfsstadium des AI Act nachträglich Regeln für solche Modelle eingefügt. Diese sind seit 2. August 2025 in Geltung. Ein GPAI-Modell (in früheren Entwurfsfassungen foundation model/Basismodell) ist dabei in Art 3 Z 63 AI Act definiert als ein KI-Modell, das&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;das eine erhebliche allgemeine Verwendbarkeit aufweist,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;In den von der EU-Kommission im Juli 2025 veröffentlichten Leitlinien zu GPAI-Modellen werden eine kumulierte Menge der für das Training verwendeten Berechnungen gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; von mehr als 10&amp;lt;sup&amp;gt;23&amp;lt;/sup&amp;gt; und die Fähigkeit, geschriebene oder gesprochene Sprache (aber auch Bilder oder Videos aus Text) zu generieren, als Anhaltspunkte für das Vorliegen eines GPAI-Modells angegeben, es sei denn, das Modell erfüllt die oben angegebenen Kriterien der Allgemeinheit nicht (zB weil es spezifisch nur für die Transkription von Sprache in Text trainiert wurde).&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 13 ff.&amp;lt;/ref&amp;gt; Somit ist davon auszugehen, dass die üblichen [https://de.wikipedia.org/wiki/Large_Language_Model LLM]s, wie die GPT-Serie von OpenAI, die Gemini-Serie von Google oder die Claude-Serie von Anthropic als GPAI-Modelle im Sinne dieser Definition einzustufen sind.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt.&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Abgrenzung der Rollen entlang der Wertschöpfungskette&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&amp;lt;mark&amp;gt;In Bezug auf GPAI-Modelle können (anknüpfend an die allgemeinen Rollendefinitionen des AI Act) folgende Rollen unterschieden werden:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Anbieter (Providers) von GPAI-Modellen:&#039;&#039;&#039; Entwickeln ein GPAI-Modell oder lassen es entwickeln und bringen es ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr oder nehmen es unter ihrem eigenen Namen oder ihrer Handelsmarke in Betrieb, sei es entgeltlich oder unentgeltlich (Art 3 Z 3 AI Act);&amp;lt;ref name=&amp;quot;:3&amp;quot;&amp;gt;Vgl Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 72 ff.&amp;lt;/ref&amp;gt; sie treffen primär die nachfolgend beschriebenen Pflichten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Modifizierer (Downstream Modifiers) von GPAI-Modellen&#039;&#039;&#039;: Fine-tunen/modifizieren&amp;lt;ref&amp;gt;Vgl ErwGr 97 Satz 5.&amp;lt;/ref&amp;gt; bestehende GPAI-Modelle anderer Anbieter; laut der Kommission ist nicht jeder Modifizierer dadurch gleich als Anbieter des modifizierten GPAI-Modells anzusehen, dies jedoch dann, wenn die Modifikation des GPAI-Modells zu einer wesentlichen Änderung der Universalität, der Leistungsfähigkeit oder des systemischen Risikos des GPAI-Modells führt, wobei als Indiz dafür gilt, dass die Anzahl der Berechnungen für die Modifikation ein Drittel jener für das Training des ursprünglichen GPAI-Modells übersteigt.&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 60 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Anbieter (Downstream Providers) von KI-Systemen:&#039;&#039;&#039; Integrieren GPAI-Modelle in KI-Systeme; ein wesentlicher Zweck der Regulierung von GPAI-Modellen ist, dass nachgelagerte Anbieter, ein GPAI-Modell in ihr KI-System integrieren, Informationen über dieses Modell erhalten und darauf basierend ihren eigenen Verpflichtungen (nach den allgemeinen Regeln des AI Act für KI-Systeme) nachkommen zu können.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Betreiber (Deployers):&#039;&#039;&#039; Verwenden ein KI-System im praktischen Einsatz.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme der Hauptgegenstand der Regulierung durch den AI Act sind (risikobasierten Ansatz), unterliegen auf Ebene der Modelle nur GPAI-Modelle einer direkten Regulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese Regulierung unterscheidet zwischen GPAI-Modellen ohne und GPAI-Modellen mit systemischem Risiko. Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act), &lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über &amp;quot;Fähigkeiten mit hohem Wirkungsgrad&amp;quot; verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; FLOPs beträgt.&amp;lt;ref&amp;gt;Zur Berechnung dieser Maßzahl siehe Annex der Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 117 ff.&amp;lt;/ref&amp;gt; Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act). Oder&lt;br /&gt;
* wenn die Kommission in einer Entscheidung festgestellt hat, dass es über solche Fähigkeiten oder eine solche Wirkung verfügt (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 Abs 1 AI Act):&lt;br /&gt;
&lt;br /&gt;
# eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden&lt;br /&gt;
# Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
# eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
# eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Pflichten 1 und 2 &amp;quot;gelten nicht für Anbieter von KI-Modellen, die im Rahmen einer freien und quelloffenen Lizenz bereitgestellt werden, die den Zugang, die Nutzung, die Änderung und die Verbreitung des Modells ermöglicht und deren Parameter, einschließlich Gewichte, Informationen über die Modellarchitektur und Informationen über die Modellnutzung, öffentlich zugänglich gemacht werden. Diese Ausnahme gilt nicht für KI-Modellen [sic!] mit allgemeinem Verwendungszweck mit systemischen Risiken.&amp;quot; (Art 53 Abs 2 AI Act) In den Leitlinien der Kommission ist die (strenge) Auslegung der einzelnen Kriterien dieser Definition ausführlich dargelegt.&amp;lt;ref name=&amp;quot;:3&amp;quot; /&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 Abs 1 AI Act):&lt;br /&gt;
&lt;br /&gt;
# eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
# mögliche systemische Risiken auf Unionsebene bewerten und mindern&lt;br /&gt;
# einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
# ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten&lt;br /&gt;
&amp;lt;mark&amp;gt;Details zur Umsetzung insbesondere dieser risiko- und sicherheitsbezogenen Pflichten sind im Kapitel Sicherheit des [https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai General-Purpose AI Code of Practice] festgelegt. Siehe dazu sogleich.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung des AI Act beitragen sollen.&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von GPAI-Modellen sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 56 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 10. Juli 2025 wurde der Praxisleitfaden &amp;quot;[https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai General-Purpose AI Code of Practice]&amp;quot; veröffentlicht und von der EU-Kommission und vom KI-Gremium am 1. August 2025 gem Art 56 Abs 6 AI Act als angemessen bewertet.&amp;lt;ref&amp;gt;Europäische Kommission, Erstellung eines allgemeinen KI-Verhaltenskodex, https://digital-strategy.ec.europa.eu/de/policies/ai-code-practice.&amp;lt;/ref&amp;gt; Zu diesem wurde auch eine [https://digital-strategy.ec.europa.eu/de/faqs/questions-and-answers-code-practice-general-purpose-ai FAQ-Seite] veröffentlicht. Auch ein [https://ec.europa.eu/newsroom/dae/redirection/document/118118 Musterdokumentationsformular für Modelle] ist Teil des GPAI Code of Practice. Zusätzlich hat die EU-Kommission am 18. Juli 2025 auch [https://ec.europa.eu/newsroom/dae/redirection/document/118340 Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act] veröffentlicht.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Für Anbieter von GPAI-Modellen, die den GPAI Code of Practice unterzeichnen und diesen einhalten, können dadurch nachweisen, dass sie ihre Pflichten nach Art 53 Abs 1 und Art 55 Abs 1 AI Act erfüllen.&amp;lt;ref&amp;gt;Vgl Art 50 Abs 7 und Art 53 Abs 4 AI Act, Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 94 sowie Europäische Kommission, Der General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/de/policies/contents-code-gpai.&amp;lt;/ref&amp;gt; Damit sollen Rechtssicherheit geschaffen sowie Compliance und Vollzug vereinfacht werden. Es handelt sich dabei aber um eine freiwillige Maßnahme und es steht Anbietern von GPAI-Modellen somit frei, die entsprechenden Bestimmungen des AI Act auch auf andere Weise umzusetzen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Auf der oben verlinkten Website des GPAI Code of Practice ist angegeben, welche Anbieter von GPAI-Modellen diesen unterzeichnet haben. Darunter finden sich die meisten Anbieter der gängigen LLMs, wie Anthropic, Google, OpenAI und Mistral AI.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Stand November 2025 wurde in Österreich noch keine Behörde als zuständige Marktüberwachungsbehörde eingerichtet oder benannt. Bereits mit 2. November 2024 sind jedoch einige Behörden und öffentliche Stellen im Grundrechtsbereich gemäß Art 77 Abs 2 mit Aufsichts- und Durchsetzungsbefugnissen für Grundrechte insb im Zusammenhang mit Hochrisiko-KI ausgestattet worden, darunter die Volksanwaltschaft, die Datenschutzbehörde, die Arbeiterkammer, die Gleichbehandlungskommission, die Behindertenanwaltschaft, die KommAustria uvm.&amp;lt;ref&amp;gt;Mehr dazu unter: https://www.digitalaustria.gv.at/themen/kuenstliche-intelligenz/behoerden-art77-ai-act.html.&amp;lt;/ref&amp;gt; Dabei treffen auch die (künftig) zuständige Marktüberwachungsbehörde umfassende Kooperationspflichten, wie etwa die Meldung schwerwiegender Grundrechtsvorfälle in diesem Kontext an die genannten Einrichtungen (vgl Art 73 Abs 7 und Art 79 Abs 2 AI Act).&amp;lt;ref&amp;gt;Vgl &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 103, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Dazu hat die Kommission entsprechende Leitlinien zu veröffentlichen, die sich gerade in Ausarbeitung befinden.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung im Einzelfall betroffen sind,&lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (&amp;lt;mark&amp;gt;Recht auf Erläuterung der Entscheidungsfindung im Einzelfall gemäß Art 86 Abs 1 AI Act oder auch gemeinhin als &#039;&#039;&#039;&amp;quot;Recht auf Erklärung&amp;quot;&#039;&#039;&#039; bezeichnet&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157; &#039;&#039;Poindl/Müller,&#039;&#039; Das Recht auf Erklärung im AI Act. Betroffenenrecht mit Potenzial oder Papiertiger?, VbR 2025, 40. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei ist es unerheblich, ob das KI-System die Entscheidung gänzlich autonom getroffen hat oder unterstützend beteiligt war, es darf lediglich keine untergeordnete Rolle im Entscheidungsprozess gespielt haben.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Steht das Recht auf Erklärung zu, hat die betroffene Person einerseits das Recht, eine Erklärung über die Rolle des KI-Systems im Entscheidungsprozess zu verlangen, worunter einerseits Informationen über die zentralen Aufgaben des Systems im Entscheidungsprozess fallen (zB Zielgruppenselektion, Datenanalyse, Vorgabe der Entscheidung usw.) und andererseits auch der Grad dessen Beteiligung (gering, mittel, hoch), was umgekehrt auch den Grad menschlicher Beteiligung an der Entscheidungsfindung erfordert. Weiters sind die wichtigsten Elemente der Entscheidung zu beauskunften, beispielsweise Eingabedaten, wesentliche Entscheidungsgründe, kontrafaktische Erklärungen (inwiefern hätten andere Parameter zu einer anderen Entscheidungen geführt), die Auswirkungen der Entscheidung, die Gewichtung der einzelnen Kriterien und die Verarbeitungslogik (Informationen über die grobe Funktionsweise des KI-Systems, keine komplette Offenlegung des algorithmischen Codes). Weiters muss die Erklärung präzise, korrekt, verständlich, nicht zu technisch (keine komplexen mathematischen Formeln), aber dennoch vollständig sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letzter Referenzpunkt ist stets, ob die betroffene Person auf Basis der erlangten Informationen weitere Rechte geltend machen kann, da das Recht auf Erklärung auch oft als &amp;quot;Türöffner&amp;quot; für die Geltendmachung weiterer Rechte dient (so wird bspw eine Klage wegen Diskriminierung in einem Entscheidungsprozess erst erhoben werden können, wenn die betroffene Person genügend Informationen hat, um die Diskriminierung darzulegen, bspw die Gewichtung von bestimmten persönlichen Merkmalen, die ausschlaggebend für die Entscheidung war).&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Es handelt sich somit um ein nachgelagertes bzw &#039;&#039;ex post&#039;&#039; Recht, das nicht nur globale, abstrakte Systemerklärungen erfordert, sondern auch lokale, einzelfallbezogene Auskünfte umfasst, damit die betroffene Person die Informationen wirksam nutzbar machen kann .&amp;lt;/mark&amp;gt; Das Recht auf Erklärung steht Betroffenen gegenüber Betreibern und nicht gegenüber Anbietern zu, wobei letztere wiederum Betreibern entsprechende Betriebsanleitungen bereitzustellen haben (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung gilt nicht, sofern Ausnahmen nach Unionsrecht oder nationalem Recht bestehen (Art 86 Abs 2). Zu denken wäre hier etwa an Beschränkungen der Informationspflicht aufgrund geschützter Betriebs- oder Geschäftsgeheimnisse, wobei diese nicht zu einer pauschalen Auskunftsverweigerung führen dürfen.&amp;lt;/mark&amp;gt; Art 86 Abs 1 gilt überdies nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung Subsidiarität] ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung ist immer dann relevant, wenn Unternehmen, Behörden etc. KI in Entscheidungsfindungsprozessen einsetzen, die Auswirkungen auf bestimmte Personen(-gruppen) haben. Zu denken ist etwa an KI-basierte Entscheidungen über die Vergabe von Krediten, über die Berücksichtigung einer Bewerbung, über die Höhe einer Versicherungsprämie oder personalisierte Werbeschaltungen auf Basis von Emotionserkennung.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zum Umgang mit dem Recht auf Erklärung in der Praxis hat das &#039;&#039;Research Institute&#039;&#039; im Auftrag des Bundesministeriums für Arbeit, Soziales, Gesundheit, Pflege und Konsumentenschutz Leitlinien entwickelt:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:f1685e43-21b8-48f3-9fe5-2c61898960ae/Final_Aufkl%C3%A4rung%204.0_Unternehmensleitfaden_April2025.pdf Leitfaden für Unternehmen] im Umgang mit Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:40ba630c-39af-4b8d-8768-a69192427b09/Final_Aufkl%C3%A4rung%204.0_Konsumentinnenleitfaden_April2025.pdf Leitfaden für Konsument:innen und ihre Interessenvertretungen] zur Durchsetzung ihrer Rechte&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf Theoretischer Grundlagenbericht] zur wissenschaftlichen Fundierung der ausgesprochenen Empfehlungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Europäische Komitee für Normung (CEN) und das Europäische Komitee für elektrotechnische Normung (cenelec) wurden mittels Durchführungsbeschluss aufgefordert, bis zum 30. April 2025 bestimmte angeführte Normen auszuarbeiten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/growth/tools-databases/enorm/mandate/593_en&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Der ursprüngliche Zeitplan konnte nicht eingehalten werden und es erfolgte eine neuerliche Fristverlängerung mittels eines neuerlichen Durchführungsrechtsaktes.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl Commisson Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation as regards high-risk AI-systems in support of Regulation (EU) 2024/1689 of the European Parliament and of the Council and repealing Implementing Decision C(2023)3215 &amp;lt;nowiki&amp;gt;https://ec.europa.eu/transparency/documents-register/detail?ref=C(2025)3871&amp;amp;lang=en&amp;lt;/nowiki&amp;gt;&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Seit November 2025 liegt der erste Entwurf einer harmonisierten Norm zum Qualitätsmanagement &amp;quot;EprEN 18286, Artificial intelligence – Quality management system for EU AI Act regulatory purposes nach Art 17 AI Act zur öffentlichen Kommentierung vor.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://adamleonsmith.substack.com/p/pren-18286&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Konsultation zu diesem Normentwurf läuft bis zum 22. Jänner 2026. In den kommenden Monaten sollen weitere Normentwürfe folgen – unter anderem zu Risikomanagement, Cybersicherheit, Vertrauenswürdigkeit und Konformitätsbewertung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zudem verabschiedeten CEN/cenelec im Oktober 2025 ein Maßnahmenpaket, um die Fertigstellung wichtiger Normen, die im Rahmen von CEN-CLC/JTC 21 „Künstliche Intelligenz” entwickelt wurden, sowie der im Rahmen des Normungsantrags M/593 (und seiner Änderung M/613) geforderten Ergebnisse zu beschleunigen. Diese Maßnahmen betreffen eine Reihe von Arbeitspunkten, die die technische Grundlage für die künftigen europäischen Normen zur Unterstützung des AI Act bilden. Die Vorstände kamen überein, im Falle einer positiven Abstimmung über die Anfrage die direkte Veröffentlichung der Entwürfe ohne separate formelle Abstimmung zuzulassen und CEN-CLC/JTC 21 zu beauftragen, eine kleine Redaktionsgruppe aus bereits aktiven Experten einzurichten, um sechs der am stärksten verzögerten Entwürfe fertigzustellen, bevor sie den jeweiligen Arbeitsgruppen zur Information und für abschließende Kommentare vorgelegt werden.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://www.cencenelec.eu/news-events/news/2025/brief-news/2025-10-23-ai-standardization/&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf die verzögerten Standards wurden im Entwurf Digital Omnibus on AI Regulation Proposal&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;bestimmte Maßnahmen vorgeschlagen, um eine zeitnahe, reibungslose und verhältnismäßige Umsetzung bestimmter Bestimmungen des AI-Acts sicherzustellen. Als eine Maßnahme wurde dabei die Kopplung des Zeitplans für die Umsetzung der Vorschriften für hohe Risiken an die Verfügbarkeit von Normen vorgeschlagen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Governance und Aufsicht&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Büro für Künstliche Intelligenz&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Innerhalb der Europäischen Kommission wurde das „Büro für Künstliche Intelligenz“ (KI-Büro, AI Office) eingerichtet.&amp;lt;ref&amp;gt;Beschluss der Kommission vom 24. Januar 2024 zur Einrichtung des Europäischen Amts für künstliche Intelligenz, C(2024) 390.&amp;lt;/ref&amp;gt; Es soll insbesondere KI-Expertise in der EU aufbauen (Art 64 Abs 1 AI Act), hat aber auch einige konkrete Aufgaben in der Umsetzung des AI Act. Zu diesen gehören insbesondere die Überwachung von Anbietern von KI-Modellen mit allgemeinem Verwendungszweck (GPAI-Modellen), die Ausarbeitung und Aktualisierung von Leitlinien, Durchführungsrechtsakten und delegierten Rechtsakten, sowie die Stärkung der Entwicklung und Nutzung vertrauenswürdiger KI. Darüber hinaus fungiert das KI-Büro als Sekretariat des Europäischen Gremiums für Künstliche Intelligenz (Art 65 Abs 8 AI Act).&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Europäisches Gremium für Künstliche Intelligenz&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Europäische Gremium für Künstliche Intelligenz (KI-Gremium, AI Board) setzt sich aus einer/einem kompetenten Vertreter*in je Mitgliedstaat zusammen (Art 65 AI Act). Es dient als Kooperations- und Koordinationsplattform zwischen den Mitgliedstaaten, gibt Empfehlungen und Stellungnahmen ab und unterstützt eine möglichst einheitliche Anwendung des AI Act (siehe zu den Aufgaben und Instrumenten des KI-Gremiums Art 66 AI Act).&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Nationale Behörden&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Umsetzung und Durchsetzung des AI Act obliegt auf mitgliedstaatlicher Ebene primär den nationalen zuständigen Behörden. Jeder Mitgliedstaat muss eine notifizierende Behörde (zuständig für die Einrichtung und Überwachung von Konformitätsbewertungsstellen) und mindestens eine Marktüberwachungsbehörde (zuständig für die Ex-post-Kontrolle von KI-Systemen und die Ahndung von Verstößen) als zuständige nationale Behörden einrichten oder benennen (Art 70 Abs 1 AI Act) sowie eine Marktüberwachungsbehörde benennen, die als zentrale Anlaufstelle (single point of contact) fungiert (Art 70 Abs 2 AI Act). Die Marktüberwachungsbehörden fungieren auch als Beschwerdestellen (Art 85 AI Act) und verfügen über weitreichende Befugnisse, darunter das Recht, Zugang zu Daten und Dokumentationen von Hochrisiko-KI-Systemen zu verlangen (Art 74 Abs 12 AI Act) und unter Umständen auch zu deren Quellcode (Art 74 Abs 13 AI Act) sowie Maßnahmen bis hin zum Verbot der Inbetriebnahme zu ergreifen (Art 79 Abs 5 AI Act).&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;AI Act Service Desk&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Zur Unterstützung von Unternehmen, Behörden und anderen Stakeholdern stellt die Europäische Kommission die „[https://ai-act-service-desk.ec.europa.eu AI Act Single Information Platform]“ bereit. Herzstück ist der AI Act Service Desk, eine Anlaufstelle, über die Fragen in der jeweiligen EU-Amtssprache eingereicht und von einem Expert*innenteam beantwortet werden, das eng mit dem KI-Büro zusammenarbeitet. Ergänzend dazu gibt es ein umfangreiches, laufend aktualisiertes FAQ sowie Tools wie einen Compliance Checker.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Grundlegende Überschneidungen zwischen dem AI Act und der Datenschutz-Grundverordnung (DSGVO)&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Da KI-Systeme bzw -Modelle häufig personenbezogene Daten verarbeiten - bspw im Rahmen des Trainings eines KI-Modells oder zur Entscheidungsunterstützung in Bezug auf konkrete Personen -, stellt sich unweigerlich die Frage nach dem Zusammenwirken des AI Act mit der DSGVO.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Der Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA) des LfDI Baden-Württemberg enthält eine Auswahl von Orientierungshilfen verschiedener Aufsichtsbehörden und Gremien zu den Schnittstellen von DSGVO und KI: https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0. MwN &#039;&#039;Holtz/Ledendal,&#039;&#039; AI Data Governance - Overlaps Between the AI Act and the GDPR (iE, 2026): https://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1996843&amp;amp;dswid=-4177 sowie der [https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/DE-Bridge-Blueprint-v.0.9.pdf &amp;quot;Bridge Blueprint&amp;quot;-Entwurf] zur einheitlichen Anwendung von Datenschutz- und KI-Regulierung des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI).&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letztere knüpft ihren Anwendungsbereich nämlich an die Verarbeitung personenbezogener Daten iSd Art 4 Abs 1 DSGVO, worunter alle Informationen zu verstehen sind, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Die DSGVO ist seit 2018 in Anwendung und verfolgt den Grundsatz, dass jegliche Verarbeitung personenbezogener Daten verboten ist, es sei denn, es liegt ein Erlaubnistatbestand nach Art 6 Abs 1 DSGVO vor. Für die Verarbeitung sog &amp;quot;sensibler Daten&amp;quot; nach Art 9 DSGVO (zB Gesundheitsdaten, die ethnische Herkunft, die religiöse Weltanschauung etc.) legt sie noch strengere Maßstäbe an. Damit verfolgt die DSGVO einen horizontalen sowie prinzipienbasierten Ansatz, wonach bei der Verarbeitung personenbezogener Daten bestimmte Anforderungen und Grundsätze einzuhalten sind, ungeachtet der verwendeten Technologie, des Sektors oder des Einsatzgebiets.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 32, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus orientiert sich die Verordnung daran, inwieweit eine bestimmte Datenverarbeitung ein Risiko für die Rechte und Freiheiten natürlicher Personen darstellt (&amp;quot;risikobasierter Ansatz&amp;quot;), wonach sich letztendlich die Strenge der von ihr vorgeschriebenen Verpflichtungen bemisst.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Der AI Act erkennt das Primat der DSGVO in Art 2 Abs 7 an und statuiert, dass er deren Anwendungsbereich unberührt lässt. Somit gehen im Falle der Verarbeitung personenbezogener Daten durch eine KI-Anwendung die Regelungen der DSGVO grundsätzlich vor, während der AI Act dem ergänzend eine produktsicherheitsrechtliche Komponente beifügt, die während der Entwicklung und des Einsatzes von KI zu beachten ist.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 33, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Überschneidungen beider Rechtsakte ergeben sich bspw, sobald ein KI-Modell mit personenbezogenen Daten &#039;&#039;&#039;trainiert&#039;&#039;&#039; werden soll. In diesem Fall braucht es eine Rechtsgrundlage nach Art 6 Abs 1 DSGVO (und ggf Art 9 DSGVO), wobei hier am ehesten die berechtigten Interessen des Verantwortlichen nach lit f leg cit infrage kommen. So hat sich bspw der Facebook-Mutterkonzern Meta auf berechtigte Interessen berufen, um sein Sprachmodell &amp;quot;LLaMA&amp;quot; hinter seiner &amp;quot;Meta AI&amp;quot; mit Nutzerdaten zu trainieren. Dagegen erhob die Verbraucherschutzzentrale NRW Antrag auf Erlass einer einstweiligen Verfügung, letztendlich entschied jedoch das OLG Köln in seinem Beschluss vom 23.05.2025 (15 UKl 2/25), dass sich Meta für das KI-Training mit Nutzerdaten auf berechtigte Interessen stützen könne.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://www.verbraucherzentrale.nrw/urteilsdatenbank/digitale-welt/olg-koeln-weist-eilantrag-der-verbraucherzentrale-nrw-gegen-meta-wegen-kitraining-zurueck-108065.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Umgekehrt ist laut Art 35 DSGVO immer dann eine Datenschutz-Folgenabschätzung durchzuführen, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat, insbesondere bei Verwendung neuer Technologien. Darunter fallen gemäß §2 Abs 2 Z 4 DSFA-V&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Verordnung der Datenschutzbehörde über Verarbeitungsvorgänge, für die eine Datenschutz-Folgenabschätzung durchzuführen ist (DSFA-V), BGBl. II Nr. 278/2018.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;insbesondere Datenverarbeitung unter Einsatz von künstlicher Intelligenz, welcher jedenfalls die Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung nach sich zieht. Somit löst auch der Einsatz von KI unter gewissen Voraussetzungen datenschutzrechtliche Pflichten aus.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: Digital Services Act (DSA) vs AI Act ===&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der DSA legt einheitliche Regeln für Vermittlungsdienste mit dem Ziel fest, ein vertrauenswürdiges, (rechts-)sicheres und vorhersehbares Online-Umfeld für Verbraucher und Unternehmen durch eine harmonisierte Plattformregulierung zu gewährleisten. Ebenso zielt das Regelwerk auf den Schutz sowie die Gewährleistung einer effektiven Grundrechtsausübung und normiert umfassende Verpflichtungen für Anbieter von Online-Diensten in Form eines abgestuften Regelungsansatzes, der die unterschiedlichen Compliance-Pflichten an die Art und Größe der jeweiligen Online-Dienste knüpft. Dabei kennt der DSA folgende Anbieterkategorien: Anbieter von allgemeinen Vermittlungsdiensten, Hostingdiensten, Online- sowie Transaktionsplattformen und sehr großen Online-Plattformen (VLOPs) und -Suchmaschinen (VLOSEs). Überschneidungen mit dem AI Act können sich auf zweierlei Weise ergeben: Einerseits können KI-Anwendungen zur Generierung oder Manipulation von Inhalten verwendet werden, die dann über Vermittlungsdienste geteilt werden. Andererseits können KI-Systeme das Kernangebot des Diensteanbieters ausmachen, in der Inhaltsmoderation eingesetzt werden oder Produkt- bzw Service-Empfehlungen auf Basis von Nutzerverhalten (&amp;quot;Empfehlungsalgorithmen&amp;quot;) schalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 48, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Allgemeine Synergien sind dem [[Digital Services Act (DSA)|Eintrag über den DSA]] zu entnehmen.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
* Weiters kann es bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act in Bezug auf die notwendige Risikoanalyse kommen. &amp;lt;mark&amp;gt;So fordern die Artikel 34 und 35 DSA die Analyse jener potenzieller systemischer Risiken, die sich durch das Design, die Funktion oder die Nutzung ihrer Services ergeben, insbesondere im Zusammenhang mit algorithmischen Systemen oder Systemen zur Inhaltsmoderation. Demgegenüber legt der AI Act in Art 17 die Verpflichtung für Anbieter von Hochrisiko-KI-Systemen zur Etablierung eines Risikomanagementsystems gemäß Art 9 AI Act fest und sieht spezielle Anforderungen für Anbieter von GPAI-Modellen mit systemischem Risiko vor (Art 55 Abs 1 lit b AI Act).&amp;lt;/mark&amp;gt; Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Im Fall von Anbietern von Hochrisiko-KI-Systemen sieht der AI Act sogar explizit die Möglichkeit vor, Risikomanagementprozesse nach anderen unionsrechtlichen Bestimmungen mit jenen nach dem AI Act zu kombinieren (vgl Art 9 Abs 10 AI Act).&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 49, &amp;lt;nowiki&amp;gt;https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Art 86 AI Act normierte Recht auf Erläuterung] besteht potentiell eine Subsidiarität gegenüber anderen Auskunftsansprüchen, insb der Auskunftspflicht nach Art 15 Abs 1 lit h DSGVO iVm Art 22 DSGVO. &amp;lt;mark&amp;gt;Demnach steht Personen, die von einer automatisierten Entscheidungsfindung im Einzelfall einschließlich Profiling betroffen sind, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie ähnlich erheblich beeinträchtigt, das Recht zu, neben allgemeinen Informationen über die Verarbeitung ihrer personenbezogenen Daten aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und Auswirkungen einer derartigen Verarbeitung zu verlangen. Inhaltlich&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;richtet sich der Auskunftsanspruch nach Art 15 Abs 1 lit h DSGVO gemäß rezenter EuGH-Judikatur insb auf die Erläuterung des Verfahrens und der Grundsätze, die bei der automatisierten Verarbeitung der personenbezogenen Daten der betroffenen Person zur Anwendung kamen und zu dem bestimmten Ergebnis geführt haben.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117, Rz 58. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Frage nach einer potenziellen Subsidiarität von Art 86 AI Act gegenüber den entsprechenden datenschutzrechtlichen Vorschriften hängt von unterschiedlichen Fallszenarien ab, in denen die jeweils verwendeten Technologien und verarbeiteten Datenkategorien zu unterschiedlichen Ergebnissen führen können:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 15 Abs 1 lit h iVm Art 22 DSGVO&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsfolge&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Hochrisiko-KI-Einsatz in Entscheidungsfindungsprozessen, in denen entweder keine personenbezogenen Daten gemäß Art 4 Z 1 DSGVO verarbeitet werden (zB Verarbeitung lediglich aggregierter Daten) oder keine vollautomatisierte Entscheidung iSd Art 22 DSGVO getroffen wird (etwa weil ein Mensch maßgeblich an der Entscheidungsfindung beteiligt ist)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Das Recht auf Erklärung steht vollumfänglich wie in Art 86 Abs 1 dargelegt zu (bei Vorliegen der übrigen Voraussetzungen). Der betroffenen Person sind somit klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess und zu den wichtigsten Elementen der getroffenen Entscheidung zu übermitteln, wobei die Erklärung einzelfallbezogen und auf das konkrete Ergebnis gerichtet sein muss. Der Anwendungsbereich von Art 15 (Abs 1 lit h iVm Art 22) DSGVO ist hingegen nicht eröffnet. Das Recht, die Entscheidung anzufechten, steht - zumindest gemäß AI Act - nicht zu.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Es findet eine vollautomatisierte Entscheidungsfindung auf Basis der Verarbeitung personenbezogener Daten statt, allerdings ohne Beteiligung eines Hochrisiko-KI-Systems iSd Art 6 Abs 2 iVm Anhang III AI Act (bspw wird die Entscheidung durch einen herkömmlichen Algorithmus getroffen, der Anforderungen an ein KI-System nach Art 3 Z 1 AI Act nicht erfüllt oder das KI-System fällt nicht in den Hochrisiko-KI-Bereich)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Auskunftsanspruch gemäß Art 15 (Abs 1 lit h iVm Art 22) DSGVO steht bei Vorliegen der übrigen Voraussetzungen zu, während das Recht auf Erklärung nach Art 86 AI Act keine Anwendung findet. Es sind der betroffenen Person somit Informationen über die involvierte Logik, Tragweite und Auswirkungen der Entscheidung zu übermitteln, wobei Informationen über die Rolle des eingesetzten Systems nicht darunter fallen. Im Unterschied zu Art 86 AI Act ist in Bezug auf Art 15 Abs 1 lit h DSGVO jedoch noch unklar, ob auch eine Verpflichtung zu einer einzelfallbezogenen Begründung der konkret erzielten Ergebnisse besteht, die über eine abstrakte/allgemeine Erklärung hinausgeht.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl etwa das EuGH-Urteil in der RS Dun &amp;amp; Bradstreet, welches stärker auf das lokale Element, dh die Einzelentscheidung, abzustellen scheint (EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117). MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 71, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Art 22 Abs 3 DSGVO enthält jedoch im Gegensatz zum AI Act das Recht, die Entscheidung anzufechten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Verarbeitung personenbezogener Daten im Rahmen der Entscheidungsfindung, Einsatz eines Hochrisiko-KI-Systems, vollautomatisierte Entscheidungsfindung&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Anspruch nach Art 86 AI Act tritt ergänzend zu jenem nach der DSGVO hinzu und richtet sich auf jene Informationen, die nach Art 15 DSGVO nicht zu beauskunften sind (bspw die Rolle des KI-Systems im Entscheidungsprozess sowie jedenfalls einzelfallbezogene, lokale Erklärungen). Es handelt sich somit um eine sog &amp;quot;Lückenfüller-Position&amp;quot; von Art 86 AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Ansicht folgend und mwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 96 ff, &amp;lt;nowiki&amp;gt;https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;mark&amp;gt;In der Regel werden Betroffene in der Praxis wohl beide Ansprüche gleichzeitig geltend machen. Dies ist allerdings nur möglich, sofern beide Ansprüche auch gegenüber der selben Person bzw Einrichtung geltend zu machen sind. Denn während das Recht auf Erklärung nach Art 86 AI Act gegen den Betreiber des KI-Systems zusteht, ist der Auskunftsanspruch gemäß Art 15 Abs 1 lit h DSGVO gegen jene Person oder Stelle zu richten, welche die Entscheidung getroffen hat (welche zwar meist aber nicht zwangsläufig mit der Person des datenschutzrechtlich Verantwortlichen iSd Art 4 Z 7 DSGVO ident sein wird&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Argumentation folgend: &#039;&#039;Ziegenhorn,&#039;&#039; Wer ist Adressat des Art. 22 DSGVO? Zur Abgrenzung des Entscheiders vom Verantwortlichen, CR 2024, 586.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;). Die unterschiedlichen Rollen nach AI Act und DSGVO können somit zusammenfallen, müssen dies allerdings nicht, wodurch sich unterschiedliche Verpflichtungen für die beteiligten Akteure ergeben können.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== Produkthaftungsrichtlinie neu und Vorschlag für eine AI Liability Directive [zurückgezogen] ===&lt;br /&gt;
&lt;br /&gt;
* Die Produkthaftungsrichtlinie neu (PHRL neu) und insbesondere &amp;lt;mark&amp;gt;der (zurückgezogene)&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Commission work programme 2025, (11.2.2025) COM(2025) 45 final, 26.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Vorschlag für eine&amp;lt;/mark&amp;gt; AI Liability Directive (AILD) nehmen direkt auf den AI Act Bezug und verweisen bei der Begriffsverwendung häufig auf diesen. Die AILD kann somit nicht ohne den Kontext des AI Act verstanden werden. So sollten die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD bilden ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]). &lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act überträgt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Begleit- bzw Durchführungsgesetz, das die Sanktionen konkretisiert.  &amp;lt;mark&amp;gt;Auch die notifizierende(n) Behörde(n) und die Marktüberwachungsbehörde(n) (Art 70 AI Act) wurden in Österreich noch nicht benannt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 5: Transkriptionstool im Rahmen der Rechtspflege&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|&amp;lt;mark&amp;gt;Im Rahmen des Verfassens von Urteilen oder Protokollen wird das gesprochene Wort (Diktat des Entscheidungsorgans) digital aufgezeichnet und anschließend transkribiert. Das System ist in der Lage, mithilfe KI-gestützter Spracherkennung die jeweils Sprechenden (Speaker Diarisation) sowie juristische Begriffe und Redewendungen zu erkennen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Transkriptionssoftware liegt ein Sprachmodell (LLM) zugrunde, das auf maschinellem Lernen basiert. Dieses wird durch ein User-Interface praktisch nutzbar gemacht und stellt somit ein KI-System iSd AI Act dar.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&amp;lt;mark&amp;gt;Der Einsatz von KI in der Rechtspflege zu gewissen Zwecken kann in den Hochrisiko-KI-Bereich gemäß Art 6 Abs 2 iVm Anhang III Nr 8 lit a AI Act fallen. Solche Systeme sind jedoch nicht als hochriskant einzustufen, sofern sie für rein begleitende administrative Tätigkeiten bestimmt sind, worunter jedenfalls Spracherkennungsprogramme für das Diktieren von Entscheidungen fallen können (ErwGr 61). In einem nächsten Schritt ist die Ausnahmeregelung des Art 6 Abs 3 AI Act zu prüfen, wonach das System höchstwahrscheinlich gemäß lit a leg cit aus dem Hochrisiko-KI-Bereich ausgenommen ist, da es rein für Protokollierungszwecke eingesetzt wird und damit nur eine eng gefasste Verfahrensaufgabe übernimmt. Ebenso ist denkbar, gemäß lit d leg cit aus dem Hochrisiko-KI-Bereich ausgenommen zu sein, sofern das System lediglich eine vorbereitende Aufgabe für die Urteilserstellung übernimmt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Bejaht man hingegen das Vorliegen von Hochrisiko-KI, so treffen deren Anbieter die Pflichten der Art 8 ff AI Act und den Betreiber insbesondere die Pflichten nach Art 26 und 27 AI Act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Sofern es sich um ein KI-Modell mit allgemeinem Verwendungszweck (mit systemischem Risiko) handelt, treffen den Anbieter diesbezüglich Verpflichtungen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Unabhängig von der Risikoeinstufung des Modells bzw Systems sind darüber hinaus die Transparenzpflichten nach Art 50 AI Act zu beachten sowie ein ausreichendes Maß an KI-Kompetenz unter den Beschäftigten, die mit dem Transkriptionstool arbeiten, herzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 6: KI-System zur Filterung und Priorisierung von Bewerbungen&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Sachverhalt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen möchte eine neue Stelle besetzen und erhält unzählige Bewerbungen. Daher entschließt es sich, ein KI-basiertes System einzusetzen, das Bewerbungen filtert und mit einem Einstufungswert versieht, wodurch die Bewerbungen priorisiert werden. Die zuständigen HR-Mitarbeiter*innen weichen nicht mehr von dem Wert ab und vergeben die Stelle schließlich an jene Person, die den höchsten Einstufungswert erhalten hat.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!&amp;lt;mark&amp;gt;Einordnung AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Sofern es sich bei der Anwendung um ein KI-System nach Art 3 Z 1 AI Act handelt, ist der Anwendungsbereich des AI Act grundsätzlich eröffnet. Das Unternehmen ist jedenfalls als dessen Betreiber zu qualifizieren, da es das System in eigener Verantwortung zu beruflichen Zwecken einsetzt. Sofern es das KI-System auch selbst entwickelt / entwickeln lässt und es unter eigener Marke bzw eigenem Namen in Betrieb nimmt, ist es sogar Anbieter.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]].&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Darüber hinaus stellt das System ein &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System nach Art 6 Abs 2 iVm Anhang III Punkt 4a AI Act dar, da es bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet wird, um Bewerbungen zu filtern und Bewerber zu bewerten. Eine Ausnahme nach Art 6 Abs 3 AI Act vom Hochrisiko-KI-Bereich liegt nicht vor, da das KI-System das Ergebnis der Entscheidungsfindung wesentlich beeinflusst (von dem KI-generierten Eignungswert wird nicht mehr abgewichen). Je nach Rolle treffen das Unternehmen nun weitereichende Verpflichtungen. In den meisten Fällen wird das Unternehmen wohl als Betreiber zu klassifizieren sein, weshalb es unter anderem die Betreiberpflichten nach Art 26 AI Act zu erfüllen und unter gewissen Voraussetzungen eine Grundrechte-Folgenabschätzung nach Art 27 AI Act durchzuführen hat. Art 26 Abs 7 sieht grundsätzlich auch die spezielle Betreiberpflicht vor, vor Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz die Arbeitnehmervertreter und betroffenen Arbeitnehmer über den KI-Einsatz zu informieren. Inwieweit diese Verpflichtung auch gegenüber Bewerbern gilt, die streng genommen (noch) keine Arbeitnehmer sind, ist fraglich und wird wohl zu verneinen sind. Diese vermeintliche Rechtsschutzlücke wird jedoch ohnehin wieder durch die Verpflichtung gemäß Art 26 Abs 11 AI Act ausgeglichen, von Hochrisiko-KI-Entscheidungen betroffene Personen über diesen KI-Einsatz zu informieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= &amp;lt;mark&amp;gt;Digitaler Omnibus&amp;lt;/mark&amp;gt; =&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 19. November 2025 stellte die Europäische Kommission das sogenannte &#039;&#039;&#039;„Digital Omnibus Package“&#039;&#039;&#039; vor, ein Legislativpaket mit dem Ziel, den digitalen Rechtsrahmen der EU zu vereinfachen.&amp;lt;ref name=&amp;quot;:2&amp;quot;&amp;gt;Vgl https://ec.europa.eu/commission/presscorner/detail/de/ip_25_2718. &amp;lt;/ref&amp;gt; Ziel der Maßnahme ist, Verwaltungs- und Umsetzungskosten zu senken, Rechtsklarheit zu erhöhen und insbesondere kleine und mittlere Unternehmen (KMU) zu entlasten, da Unternehmen zunehmend Schwierigkeiten bei der Umsetzung und Koordination von Vorgaben wie etwa dem AI Act sehen. Das Paket umfasst Änderungen und Anpassungen unterschiedlicher Rechtsrahmen, so auch einige Bestimmungen des AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Inhaltliche Änderungen betreffen einerseits die Verpflichtung zur Sicherstellung von KI-Kompetenz (Art 4), welche nunmehr nicht Unternehmen bzw. Einrichtungen selbst treffen soll, sondern die Kommission und die Mitgliedstaaten sind dazu angehalten, Anbieter und Betreiber zur Sicherstellung eines angemessenen Maßes an KI-Kompetenz zu unterstützen. Ebenso stellt die Kommission eine Verzögerung der Anwendbarkeit der Hochrisiko-KI-Bestimmungen in Aussicht, welche mit 2. August 2026 bzw 2. August 2027 Anwendung erlangen sollten. Grund ist das Fehlen von entsprechenden Standards, die eigentlich bis August 2025 zu setzen waren und ohne die laut Kommission die Einhaltung der entsprechenden AI Act-Bestimmungen nicht möglich sei. Die Anwendbarkeit der Hochrisiko-KI-Bestimmungen soll sich um bis zu maximal 16 Monate verzögern, wobei die Vorschriften Geltung erlangen, sobald die Kommission die Verfügbarkeit der erforderlichen Standards und Unterstützungsinstrumente bestätigt.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:2&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus enthält der Vorschlag einen neuen Art 4a, der die Verarbeitung sensibler personenbezogener Daten zur Erkennung und Minderung von Bias unter gewissen Voraussetzungen ermöglicht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Kommissionsleitlinien und sonstige Materialen/Verhaltenskodizes&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zur Definition eines Systems der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 6. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118628&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 4. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118661&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Living Repository zur Förderung des Lernens und des Austausches über KI-Kompetenz vom 04. Februar 2025 (mit Update von April 2025): https://ec.europa.eu/newsroom/dae/redirection/document/112203&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Praxisleitfaden für KI-Modelle mit allgemeinem Verwendungszweck (General-Purpose AI Code of Practice) vom 10. Juli 2025: https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Transparenz: https://ec.europa.eu/newsroom/dae/redirection/document/118120&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Urheberrecht: https://ec.europa.eu/newsroom/dae/redirection/document/118115&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Sicherheit: https://ec.europa.eu/newsroom/dae/redirection/document/118119&amp;lt;/mark&amp;gt;  &lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act vom 18. Juli 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118340&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien und Meldevorlagen zur Meldung schwerwiegender KI-Vorfälle gemäß Art 73 AI Act (&#039;&#039;Entwurf, noch in Ausarbeitung&#039;&#039;): https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; AI Act Service Desk. Frequently Asked Questions (FAQs): https://ai-act-service-desk.ec.europa.eu/en/faq.&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Whistleblower Tool for AI Act, https://digital-strategy.ec.europa.eu/en/news/commission-launches-whistleblower-tool-ai-act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act)&amp;lt;mark&amp;gt;&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024) &amp;lt;mark&amp;gt;(2. Auflage 2026, iE)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schefzig/Kilian,&#039;&#039; BeckOK KI-Recht&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Hochrangige Expertengruppe für Künstliche Intelligenz,&#039;&#039; Ethik-Leitlinien für eine vertrauenswürdige KI (2019), https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425&amp;lt;/mark&amp;gt;&lt;br /&gt;
* [https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0 Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA)]&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=KI-Haftungsregelungen&amp;diff=4396</id>
		<title>KI-Haftungsregelungen</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=KI-Haftungsregelungen&amp;diff=4396"/>
		<updated>2025-12-09T12:51:38Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Überblick */ &amp;quot;(Vorschlag zurückgezogen&amp;quot;) im Kasten ergänzt&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Richtlinie|Jahr=2025|Nummer=|Vertrag=EU|EWR=ja|Titel=Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz|Kurztitel=AI Liability Directive/Richtlinie über KI-Haftung|Bezeichnung=AILD|Rechtsmaterie=Binnenmarkt, Cybersicherheit|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=Noch nicht im ABl veröffentlicht|Anzuwenden=Vorschlagsstadium (Vorschlag zurückgezogen)|GrundfassungManuell=https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX%3A52022PC0496}}&lt;br /&gt;
&lt;br /&gt;
{{Infobox Rechtsakt (EU)|Typ=Richtlinie|Jahr=2024|Nummer=2853|Vertrag=EU|EWR=ja|Titel=Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates|Kurztitel=Product Liability Directive/Produkthaftungsrichtlinie (neu)|Bezeichnung=PLD/PHRL|Rechtsmaterie=Binnenmarkt, Cybersicherheit|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/2853, 1|Anzuwenden=9. Dezember 2026 (Umsetzung)|Gültig=umsetzung}}&lt;br /&gt;
&lt;br /&gt;
== Überblick ==&lt;br /&gt;
Im Bereich der Regulierung künstlicher Intelligenz durch die EU wurden neben dem AI Act von der Kommission auch Vorschläge für spezifische Haftungsregelungen in diesem Zusammenhang vorgelegt&amp;lt;mark&amp;gt;.&amp;lt;ref name=&amp;quot;:1&amp;quot;&amp;gt;&amp;lt;mark&amp;gt;Zur vorangegangen Entstehungsgeschichte siehe im Detail &#039;&#039;B.A. Koch&#039;&#039;, Zukunftsfähiges österreichisches Haftungsrecht, 22. ÖJT Band II/1, 16 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; Dies beinhaltete zum einen den Vorschlag für eine neue &#039;&#039;&#039;Produkthaftungsrichtlinie&#039;&#039;&#039;, welcher zwar auch andere Hintergründe hatte, aber durch einige Aspekte insbesondere auch auf &#039;&#039;&#039;künstliche Intelligenz (KI)&#039;&#039;&#039; abzielte, und zum anderen einen Vorschlag für eine eigene &#039;&#039;&#039;&#039;&#039;AI Liability Directive&#039;&#039; (AILD)&#039;&#039;&#039;.&amp;lt;ref name=&amp;quot;:2&amp;quot;&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2, 3 und 13; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1 und folgende, Erwägungsgrund 3.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Während die neue Produkthaftungsrichtlinie wiederum im Wesentlichen auf harmonisierte Regelungen für eine verschuldensunabhängige&amp;lt;ref&amp;gt;Vgl kritisch etwa: &#039;&#039;European Parliamentary Research Service&#039;&#039;, Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment, PE 762.861, September 2024, Seite 27 mit weiteren Nachweisen.&amp;lt;/ref&amp;gt; (zivilrechtliche) Haftung abzielen sollte, adressierte der Vorschlag für die AILD insbesondere Beweiserleichterungen im Rahmen der (prinzipiell dennoch weiterhin) aus nationalen bzw sonstigen unionsrechtlichen Regelungen ableitbaren außervertraglichen, verschuldensabhängigen, zivilrechtlichen Haftung.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1 und 14, Erwägungsgrund 2; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 3, 12 und 13, Erwägungsgründe 9, 10, 23 und 24, Artikel 1.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Durch diese Regelungen der AILD sollte vorrangig (Beweis-)Problematiken entgegengetreten werden, die mit gewissen Eigenschaften von KI in Verbindung gebracht wurden, wie deren Komplexität und Undurchsichtigkeit (die wiederum insgesamt als &#039;&#039;&#039;&#039;&#039;Blackbox-Effekt&#039;&#039;&#039;&#039;&#039; bezeichnet werden). Angesprochen wurden dabei insbesondere Nachweise für die Aspekte &#039;&#039;Kausalität&#039;&#039; und in gewisser Hinsicht auch &#039;&#039;Verschulden.&#039;&#039;&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 1, 2, 13, 15, 16, Erwägungsgründe 22 und 28, Artikel 3(5).&amp;lt;/ref&amp;gt; Den Erläuterungen in der Begründung des Vorschlags zufolge wurden in dem Zusammenhang verschiedene Optionen abgewogen und insbesondere die Statuierung einer eigenen (verschuldensunabhängigen) Haftung für KI vorerst verworfen, was allerdings demnach nach einer gewissen Zeit noch einmal evaluiert werden sollte (siehe im Detail Artikel 5 Vorschlag AILD).&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 5 und folgende, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Rahmen der neuen Produkthaftungsrichtlinie sollte nach umfassenden Unklarheiten und potenziellen Regelungslücken&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Vgl etwa Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seite 1; &#039;&#039;European Parliamentary Research Service&#039;&#039;, Artificial intelligence liability directive, PE 739.342, February 2023, Seite 3; für Österreich etwa: &#039;&#039;Larcher&#039;&#039;, Medizinprodukte-Software: Abgrenzung und Produkthaftung, rdm 2018/100, 130 (Seiten 133, 134); für Deutschland etwa: &#039;&#039;Dötsch&#039;&#039;, Außervertragliche Haftung für Künstliche Intelligenz am Beispiel von autonomen Systemen (2023), insbesondere Seiten 276 und folgende; &#039;&#039;Joggerst/Wendt&#039;&#039;, Die Weiterentwicklung der Produkthaftungsrichtlinie, InTeR 2021, 13.&amp;lt;/ref&amp;gt; in diesem Zusammenhang nunmehr Software (und damit auch KI) explizit in den Produktbegriff aufgenommen werden.&amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl zum Hintergrund der Neufassung weiterführend erneut auch &#039;&#039;B.A. Koch&#039;&#039;, 22. ÖJT Band II/1, 16 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; Darüber hinaus zielen auch gewisse Aspekte der neuen Produkthaftungsregelungen mehr oder weniger spezifisch auf KI bzw deren Besonderheiten ab.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 6, Erwägungsgrund 12.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Beide Vorschläge zielten auf Richtlinien ab, was insbesondere bedeutet, dass diese prinzipiell zunächst durch die Mitgliedstaaten in nationales Recht umgesetzt werden müssten, um Geltung zu erlangen. Allerdings sind die jeweiligen Gesetzgebungsverfahren sehr unterschiedlich verlaufen. Die neue Produkthaftungsrichtlinie ist mittlerweile im Amtsblatt der EU veröffentlicht worden&amp;lt;ref&amp;gt;Siehe: Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024.&amp;lt;/ref&amp;gt; und prinzipiell in Kraft getreten, während das Gesetzgebungsverfahren für die AILD offenbar aufgeschoben wurde und zwischenzeitlich diverse Änderungen des Vorschlags diskutiert wurden. Stand Mitte Februar 2025 hat die Kommission den Vorschlag für die AILD offenbar verworfen. Siehe im Detail jeweils unter &#039;&#039;&#039;[[KI-Haftungsregelungen#Vorschlag für AI Liability Directive|Vorschlag für AI Liability Directive]]&#039;&#039;&#039; bzw &#039;&#039;&#039;[[KI-Haftungsregelungen#Produkhaftungsrichtlinie neu|Produkthaftungsrichtlinie neu]].&#039;&#039;&#039;&lt;br /&gt;
----&lt;br /&gt;
&lt;br /&gt;
== Vorschlag für AI Liability Directive ==&lt;br /&gt;
&lt;br /&gt;
=== Allgemeines und Anwendungsbereich ===&lt;br /&gt;
Der Vorschlag für eine &#039;&#039;&#039;AI Liability Directive&#039;&#039;&#039; (im Folgenden insbesondere: Vorschlag AILD) wurde 2022 von der Kommission vorgelegt.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final; siehe zum Verfahren auch etwa https://eur-lex.europa.eu/legal-content/EN/HIS/?uri=CELEX%3A52022PC0496 (abgerufen am 18. 2. 2025).&amp;lt;/ref&amp;gt; In der Folge wurde berichtet, dass der Gesetzgebungsprozess zwischenzeitlich aufgeschoben wurde, insbesondere um zunächst die gesetzgeberische Fertigstellung des AI Acts abzuwarten und dass von der Kommission nicht öffentlich ein überarbeiteter Vorschlag ausgesendet wurde, der insbesondere an den inzwischen veröffentlichten AI Act, aber zumindest mitunter auch in Bezug auf seine konkreten Regelungen, angepasst worden sein soll.&amp;lt;ref&amp;gt;Vgl Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive (abgerufen am 26. 11. 2024); &#039;&#039;Tom Whittaker&#039;&#039;, EU AI Liability Directive: An Update, in: Burges Salmon blog, https://blog.burges-salmon.com/post/102jfdv/eu-ai-liability-directive-an-update&amp;lt;nowiki/&amp;gt;(abgerufen am 26. 11. 2024).&amp;lt;/ref&amp;gt; Im September 2024 wurde zudem eine Studie des European Parliamentary Research Service (EPRS) publiziert, im Rahmen welcher insbesondere eine gemischte (verschuldensab- und unabhängige) Haftung diskutiert wird sowie die Ausweitung des Anwendungsbereichs der Richtlinie (etwa auf Software generell) vorgeschlagen wird.&amp;lt;ref&amp;gt;&#039;&#039;European Parliamentary Research Service&#039;&#039;, Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment, PE 762.861, September 2024; siehe auch Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive&amp;lt;nowiki/&amp;gt;(abgerufen am 26. 11. 2024).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Februar 2025 wurde schließlich bekannt, dass die Kommission den Vorschlag für die AILD im Rahmen des Arbeitsprogramms &#039;&#039;&#039;&amp;lt;u&amp;gt;zurückgezogen&amp;lt;/u&amp;gt;&#039;&#039;&#039; hat, da keine Einigung zu erwarten wäre.&amp;lt;ref&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions, Commission work programme 2025 – Moving forward together. A Bolder, Simpler, Faster Union, COM(2025) 45 final, 26, https://commission.europa.eu/strategy-and-policy/strategy-documents/commission-work-programme/commission-work-programme-2025_en&amp;lt;mark&amp;gt;; vgl dazu auch etwa BeckOK KI-Recht/Bosman, 3. Ed. 1.8.2025, KI-VO Art. 24 Rn. 16; vgl dies grundsätzlich begrüßend weiters &#039;&#039;Ebers&#039;&#039;, Haftung für Künstliche Intelligenz nach der neuen Produkthaftungsrichtlinie, KIR 2025, 252 (258).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Demnach wird im Folgenden nur auf den ursprünglichen Vorschlag der Kommission detaillierter eingegangen, der demnach jedoch erst wieder aufgegriffen werden müsste, um entsprechende Relevanz zu erfahren.&amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Zu möglichen Szenarien der weiteren Vorgehensweise siehe etwa &#039;&#039;Wendt&#039;&#039;, KI-Strategie der EU ohne KI-Haftungs-RL?, ZfPC 2025, 45.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Dieser enthielt im Wesentlichen zwei Elemente, die als Beweiserleichterungen bei der Geltendmachung von Schadenersatz im Zusammenhang mit KI dienen sollen: zum einen eine Offenlegungspflicht für bestimmte KI-Systeme und zum anderen eine Kausalitätsvermutung im Zusammenhang mit KI-Systemen im Allgemeinen.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 13-16; Grundsätzlich konnte auch die Vermutung von Sorgfaltspflichtsverstößen gemäß Artikel 3 Absatz 5 Vorschlag AILD als ein eigenes Element zur Beweiserleichterung gesehen werden, ist aber systematisch in der Bestimmung zur Offenlegungspflicht enthalten (vgl insbesondere Seiten 10 und 15 in der Begründung des Vorschlags; siehe im Detail dazu noch im Folgenden).&amp;lt;/ref&amp;gt; Bereits der ursprüngliche Richtlinienvorschlag hat gewisse Begrifflichkeiten bzw Systematik (etwa hinsichtlich &#039;&#039;KI-Systemen&#039;&#039; und gewissen, mit diesen in Verbindung stehenden Akteuren) aus dem damals vorliegenden AI Act-Vorschlag&amp;lt;ref&amp;gt;Vgl insbesondere Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte, COM(2021) 206 final.&amp;lt;/ref&amp;gt; übernommen, die jedoch teilweise nicht mehr jenen der veröffentlichten Version des AI Act entsprechen.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 14 sowie Erwägungsgrund 15.&amp;lt;/ref&amp;gt; Dies betrifft etwa &#039;&#039;Nutzer&#039;&#039; von KI-Systemen, die in der 2024 im Amtsblatt veröffentlichten Fassung des AI Act nunmehr grundsätzlich dem &#039;&#039;Betreiber&#039;&#039; gemäß Artikel 3 Ziffer 4 AI Act entsprechen würden.  &lt;br /&gt;
&lt;br /&gt;
Dabei ist anzumerken, dass der AI Act (in der im Amtsblatt veröffentlichten Fassung) zwar eine allgemeine Definition von &#039;&#039;KI-Systemen&#039;&#039; enthält, in der Folge jedoch insbesondere Regelungen für bestimmte Risikoklassen solcher Systeme (ansonsten auch etwa für bestimmte KI-Modelle, siehe im Detail [[Artificial Intelligence Act (AIA)]]). Im Rahmen des AI Act beziehen sich insbesondere die KI-Kompetenz gemäß Artikel 4 AI Act und die Regelungen über KI-Reallabore auf KI-Systeme im Allgemeinen und nicht auf eine bestimmte Risikoklasse. KI-Systeme, die nicht den ansonsten im AI Act adressierten Risikoklassen zuzuordnen bzw von entsprechenden (AI Act-)Regelungen erfasst sind, wären demnach jedoch zum Teil auch im Rahmen des Vorschlags zur AILD relevant gewesen. In dem Zusammenhang verweisen die Erwägungsgründe des Vorschlags zur AILD quasi darauf, dass auch bei nicht-Hochrisiko-Systemen bestimmte KI-Merkmale, wie Autonomie und Undurchsichtigkeit, zu Beweisschwierigkeiten führen könnten.&amp;lt;ref&amp;gt;Vgl insbesondere Erwägungsgründe 26 bis 28.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Mit dem Richtlinienvorschlag sollte ein &#039;&#039;&#039;Mindestharmonisierungsansatz&#039;&#039;&#039; verfolgt werden, wodurch „&#039;&#039;es Klägern im Fall eines durch KI-Systeme verursachten Schadens&#039;&#039;“ ermöglicht werden sollte „&#039;&#039;sich auf günstigere Vorschriften des nationalen Rechts zu berufen“&#039;&#039; (Erwägungsgrund 14).&amp;lt;ref&amp;gt;Im Allgemeinen ist anzumerken, dass bei den Begrifflichkeiten des Vorschlags AILD wie auch der neuen Produkthaftungsrichtlinie im Normtext keine gendergerechte Sprache verwendet wird. Daher kann, soweit auf diese Begrifflichkeiten Bezug genommen wird, auch hier keine gendergerechte Sprache verwendet werden. Abgesehen davon wird dies jedenfalls entsprechend berücksichtigt.&amp;lt;/ref&amp;gt; Weiters sollte die vorgeschlagene Richtlinie quasi nur bestimmte ergänzende Regelungen für die zivilrechtliche (nicht strafrechtliche), verschuldensabhängige, außervertragliche Haftung für durch KI-Systeme verursachten Schäden in Bezug auf die bestehenden Haftungssysteme einführen.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13, Erwägungsgründe 10, 20-24, Artikel 1.&amp;lt;/ref&amp;gt; Nach Erwägungsgrund 24 Vorschlag AILD sind dabei &amp;quot;[i]&#039;&#039;n Bereichen, die nicht durch das Unionsrecht harmonisiert sind,&#039;&#039; [...] &#039;&#039;weiterhin nationale Rechtsvorschriften&#039;&#039; [...]&amp;quot; einschlägig.  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf entsprechende Verschuldenshaftungen hält Erwägungsgrund 3 im Allgemeinen auch Folgendes fest, was gewissermaßen als Ausgangsbasis für die Regelungen des Vorschlags zur AILD zu sehen ist: &amp;lt;blockquote&amp;gt;„&#039;&#039;Wenn ein Geschädigter für einen entstandenen Schaden Schadensersatz verlangt, so muss er &#039;&#039;&#039;nach den allgemeinen Vorschriften der Mitgliedstaaten für die verschuldensabhängige Haftung&#039;&#039;&#039; in der Regel eine &#039;&#039;&#039;fahrlässige oder vorsätzliche schädigende Handlung oder Unterlassung („Verschulden“)&#039;&#039;&#039; der Person, die potenziell für diesen Schaden haftbar ist, sowie einen &#039;&#039;&#039;ursächlichen Zusammenhang zwischen diesem Verschulden und dem betreffenden Schaden&#039;&#039;&#039; nachweisen.&#039;&#039;“ (Hervorhebungen hinzugefügt)&amp;lt;/blockquote&amp;gt;Der eingeschränkte Anwendungsbereich wurde konkret insbesondere durch Artikel 1 sowie die Definition von Schadenersatzansprüchen, auf die sich die Richtlinie beziehen sollte (Artikel 2 Ziffer 5 Vorschlag AILD), umgesetzt. Diese Definition umfasste demnach: „&#039;&#039;einen außervertraglichen verschuldensabhängigen zivilrechtlichen Anspruch auf Ersatz des Schadens, der durch ein Ergebnis eines KI-Systems oder aber dadurch, dass dieses System das von ihm erwartete Ergebnis nicht hervorgebracht hat, verursacht wurde&#039;&#039;“. &lt;br /&gt;
&lt;br /&gt;
Auch &#039;&#039;Beklagte&#039;&#039; und &#039;&#039;Kläger&#039;&#039; bzw &#039;&#039;potenzielle Kläger&#039;&#039; wurden im Richtlinienvorschlag entsprechend definiert (Artikel 2 Ziffern 6 bis 8 Vorschlag AILD). &#039;&#039;Beklagte&#039;&#039; sollten demnach Personen sein, „&#039;&#039;gegen die ein Schadensersatzanspruch geltend gemacht wird&#039;&#039;“ (Artikel 2 Ziffer 8 Vorschlag AILD). Die Definition von Kernbegriffen, wie &#039;&#039;Verschulden,&#039;&#039; bzw die Regelung von allgemeinen Aspekten der Haftung sollte dabei aber prinzipiell (anderen) Vorschriften des Unions- bzw nationalen Rechts überlassen werden.&amp;lt;ref&amp;gt;Siehe insbesondere Artikel 1(3)(d), Erwägungsgründe 10 und 22; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Kausalitätsvermutung (Artikel 4) ===&lt;br /&gt;
Artikel 4 sollte als einen zentralen Aspekt der Richtlinie eine widerlegbare Kausalitätsvermutung regeln. Unter gewissen Voraussetzungen sollte dadurch zwecks der Anwendung von Haftungsvorschriften in Bezug auf erfasste Schadenersatzansprüche ein Kausalzusammenhang „&#039;&#039;zwischen dem Verschulden des Beklagten und dem vom KI-System hervorgebrachten Ergebnis oder aber der Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat&#039;&#039;“ vermutet werden (Artikel 4 Absatz 1 Vorschlag AILD). &lt;br /&gt;
&lt;br /&gt;
Die wesentlichen Voraussetzungen sollten dabei prinzipiell sein, dass der &#039;&#039;Kläger&#039;&#039; nachweist, &amp;quot;&#039;&#039;dass ein Verschulden seitens des Beklagten oder einer Person, für deren Verhalten der Beklagte verantwortlich ist, vorliegt, da gegen&#039;&#039; [...]&amp;quot; gewisse einschlägige Sorgfaltspflichten verstoßen wurde (Artikel 4 Absatz 1 Buchstabe a  Vorschlag AILD), sowie dass das Ergebnis oder Nicht-Ergebnis des KI-Systems zu dem entsprechenden Schaden geführt hat (Artikel 4 Absatz 1 Buchstabe c Vorschlag AILD). Unter &amp;quot;&#039;&#039;Sorgfaltspflicht&amp;quot;&#039;&#039; verstand Artikel 2 Ziffer 9 Vorschlag AILD zunächst prinzipiell &amp;quot;&#039;&#039;einen im nationalen Recht oder im Unionsrecht festgelegten Verhaltensmaßstab, der einzuhalten ist, um eine Beeinträchtigung von im nationalen Recht oder im Unionsrecht anerkannten Rechtsgütern, einschließlich Leben, körperlicher Unversehrtheit, Eigentum und Wahrung der Grundrechte, zu vermeiden&#039;&#039;&amp;quot;. Siehe zu entsprechenden Einschränkungen sogleich.  &lt;br /&gt;
&lt;br /&gt;
Im Kontext von Hochrisiko-KI sollte bei einem Verstoß gegen eine Anordnung zur Offenlegung oder Sicherung von entsprechenden Beweismitteln gemäß Artikel 3 Absatz 5 Vorschlag AILD ein Sorgfaltspflichtverstoß  auch vermutet werden können (siehe [[KI-Haftungsregelungen#Offenlegungspflicht (Artikel 3)|Offenlegungspflicht (Artikel 3)]]), was wiederum auch für die Kausalitätsvermutung einschlägig gewesen wäre (siehe Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD). Dabei ist allerdings nicht ganz klar, ob nur der (objektive) Pflichtenverstoß oder auch ein (subjektives) Verschulden vermutet werden sollte, weil sich Artikel 3 Absatz 5 (nur) auf einen &#039;&#039;&#039;Verstoß gegen einschlägige Sorgfaltspflichten&#039;&#039;&#039; bezieht, während Artikel 4 Absatz 1 Buchstabe a davon gesprochen hat, dass &amp;quot;&#039;&#039;gemäß Artikel 3 Absatz 5&#039;&#039;&amp;quot; vermutet werden soll, &amp;quot;&#039;&#039;dass ein &#039;&#039;&#039;Verschulden&#039;&#039;&#039;&#039;&#039; [...] &#039;&#039;vorliegt&#039;&#039;&amp;quot;.&amp;lt;ref&amp;gt;Hervorhebungen hinzugefügt. Zur Unterscheidung von (objektivem) Sorgfaltsmaßstab(/Sorgfaltsverstoß) und (subjektivem) Verschulden vgl national etwa zur Haftung der GmbH-Geschäftsführung: OGH 3. 8. 2021, 8 ObA 109/20t, insbesondere Randziffer 80 mit weiteren Nachweisen; &#039;&#039;Feltl/Told&#039;&#039; in &#039;&#039;Gruber/Harrer&#039;&#039; (Hrsg), GmbHG² (2018) § 25 Rz 120.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
Für die Anwendbarkeit der Kausalitätsvermutung musste zudem auf „&#039;&#039;der&#039;&#039; &#039;&#039;Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden&amp;quot;&#039;&#039; können, &#039;&#039;&amp;quot;dass das Verschulden das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat&#039;&#039;“ (Artikel 4 Absatz 1 Buchstabe b Vorschlag AILD). Nach Erwägungsgrund 25 Vorschlag AILD sollte dies etwa im Fall gegeben sein, dass das &amp;quot;&#039;&#039;Verschulden in einer Verletzung einer Sorgfaltspflicht in Bezug auf die Begrenzung des Betriebsbereichs des KI-Systems besteht und der Schaden außerhalb des Betriebsbereichs eingetreten ist&#039;&#039;&amp;quot;. Demgegenüber wäre die Voraussetzung demnach &amp;quot;&#039;&#039;bei einem Verstoß gegen eine Verpflichtung, bestimmte Dokumente bei einer bestimmten Behörde einzureichen oder sich bei einer bestimmten Behörde zu registrieren, obwohl dies für die betreffende bestimmte Tätigkeit vorgesehen oder sogar ausdrücklich für den Betrieb eines KI-Systems gelten könnte,&#039;&#039; [...]&amp;quot; nicht erfüllt. &lt;br /&gt;
&lt;br /&gt;
Die wesentliche Konsequenz der Kausalitätsvermutung wäre demnach eine gewisse &#039;&#039;&#039;gedankliche Verlagerung des (Nicht-)Resultats einer KI hin zu einer entsprechenden Handlung oder Unterlassung einer Person (für die Zwecke der einschlägigen Haftung dieser Person)&#039;&#039;&#039; gewesen.&lt;br /&gt;
&lt;br /&gt;
Für die Anwendung der Vermutung waren allerdings noch weitere Einschränkungen vorgesehen: &lt;br /&gt;
&lt;br /&gt;
* Hinsichtlich der dabei relevanten Sorgfaltspflichten sollten im Allgemeinen nur solche erfasst sein, &#039;&#039;&#039;deren unmittelbarer Zweck die Verhinderung des eingetretenen Schadens&#039;&#039;&#039; &#039;&#039;&#039;ist&#039;&#039;&#039;.&lt;br /&gt;
* Hinsichtlich Hochrisiko-KI-Systemen, für die gewisse Anforderungen nach dem AI Act(-Vorschlag) gelten, sollten jedenfalls bezüglich &#039;&#039;&#039;deren Anbietern und Personen, die Anbieter-Pflichten gemäß AI Act(-Vorschlag) unterliegen,&#039;&#039;&#039; dabei nur &#039;&#039;&#039;bestimmte Anforderungen nach dem AI Act&#039;&#039;&#039;(-Vorschlag) in Frage kommen, wie etwa die Konzeption und Entwicklung gemäß den Transparenzanforderungen des AI Act(-Vorschlags)&amp;lt;ref&amp;gt;Artikel 4 Absatz 2 Buchstabe b Vorschlag AILD.&amp;lt;/ref&amp;gt;. Zudem sollten dabei &amp;quot;&#039;&#039;die im Rahmen des Risikomanagementsystems unternommenen Schritte und dessen Ergebnisse&amp;quot;&#039;&#039; Berücksichtigung finden (jeweils Artikel 4 Absatz 2 Vorschlag AILD; siehe auch Erwägungsgrund 26 Vorschlag AILD).&lt;br /&gt;
* In Hinblick auf Nutzer von Hochrisiko-KI, für die gewisse Anforderungen nach dem AI Act(-Vorschlag) gelten, war prinzipiell eine ähnliche Regelung vorgesehen (Artikel 4 Absatz 3 Vorschlag AILD). Allerdings ging aus dieser nicht so eindeutig hervor, inwieweit die entsprechende Aufzählung von Anforderungen nach dem AI Act-Vorschlag, deren Verletzung für die Kausalitätsvermutung einschlägig wäre, abschließend sein sollte, insbesondere weil dabei kein „&#039;&#039;nur&#039;&#039;“ (oder eine ähnliche Klarstellung) verwendet wurde. zieht man die Erwägungsgründe (insbesondere 24 und 26) des Vorschlags AILD zur Auslegung heran, sollte dieser Regelungsvorschlag aber wohl so zu verstehen sein, dass neben den aufgezählten Pflichten gemäß dem AI Act(-Vorschlag) prinzipiell auch “&#039;&#039;andere im Unionsrecht oder im nationalen Recht festgelegte Sorgfaltspflichten&#039;&#039;” für solche Nutzer in Frage gekommen wären, im Hinblick auf den AI Act-Vorschlag aber nur die aufgezählten.&amp;lt;ref&amp;gt;Vgl Erwägungsgrund 26 Vorschlag AILD, worin unter anderem festgehalten wird, dass die Richtlinie Verschulden derartiger Nutzer erfassen sollte, ”&#039;&#039;wenn das betreffende Verschulden in der Nichteinhaltung &#039;&#039;&#039;bestimmter spezifischer Anforderungen&#039;&#039;&#039;”&#039;&#039; gemäß AI Act(-Vorschlag) bestünde; Hervorhebungen hinzugefügt.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Sofern das betreffende KI-System durch den &#039;&#039;Beklagten&#039;&#039; „&#039;&#039;im Rahmen einer persönlichen nicht beruflichen Tätigkeit verwendet&#039;&#039;“ wird, wäre die Vermutung im Allgemeinen nur dann anwendbar gewesen, „&#039;&#039;wenn der Beklagte die Betriebsbedingungen des KI-Systems wesentlich verändert hat oder wenn er verpflichtet und in der Lage war, die Betriebsbedingungen des KI-Systems festzulegen, und dies unterlassen hat&#039;&#039;“ (Artikel 4 Absatz 6 Vorschlag AILD).&lt;br /&gt;
&lt;br /&gt;
Die Vermutung hätte zudem vom &#039;&#039;Beklagten&#039;&#039; widerlegt werden können (Artikel 4 Absatz 7 Vorschlag AILD).&lt;br /&gt;
&lt;br /&gt;
=== Offenlegungspflicht (Artikel 3) ===&lt;br /&gt;
Die Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD sollte sich auf &#039;&#039;&#039;einschlägige Beweismittel&#039;&#039;&#039; zu bestimmten &#039;&#039;&#039;Hochrisiko-KI-Systemen&#039;&#039;&#039;, die einen Schaden verursacht haben sollen, beziehen, die wiederum Anbietern, Personen, die Anbieter-Pflichten gemäß AI Act(-Vorschlag) unterliegen, oder Nutzern vorliegen (Artikel 3 Absatz 1 Vorschlag AILD). In Hinblick auf die Beschränkung auf Hochrisiko-KI-Systeme ist insbesondere auf Erwägungsgrund 18 des Vorschlags AILD zu verweisen. &lt;br /&gt;
&lt;br /&gt;
Dabei sollten nämlich &#039;&#039;&#039;diejenigen zur Offenlegung verpflichtet&#039;&#039;&#039; werden, die relevante Beweismittel – etwa aufgrund entsprechender Dokumentationspflichten gemäß AI Act(-Vorschlag) – &#039;&#039;&#039;innehaben&#039;&#039;&#039; (vgl Erwägungsgrund 16 Vorschlag AILD). Erwägungsgrund 16 Vorschlag AILD hielt zum Hintergrund zudem fest: &amp;quot;&#039;&#039;Der Zugang zu Informationen über bestimmte Hochrisiko-KI-Systeme, bei denen der Verdacht besteht, dass sie einen Schaden verursacht haben, ist ein wichtiger Faktor für die Feststellung, ob Schadensersatzansprüche geltend gemacht werden können, und für die Begründung derselben&#039;&#039;&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Zur Geltendmachung berechtigt – durch Antrag bei den entsprechenden nationalen Gerichten – wären gemäß Artikel 3 Absatz 1 Vorschlag AILD grundsätzlich entsprechende &#039;&#039;Kläger&#039;&#039; und &#039;&#039;potenzielle Kläger&#039;&#039; (vgl erneut Artikel 2 Ziffern 6 und 7 Vorschlag AILD) gewesen. Dabei hätte aber der Unterschied bestanden, dass &#039;&#039;potenzielle Kläger&#039;&#039; nur dann erfasst gewesen wären, wenn sie die betreffende Person &#039;&#039;&#039;&#039;&#039;zuvor&#039;&#039;&#039;&#039;&#039; vergeblich zur Offenlegung aufgefordert haben.&amp;lt;ref&amp;gt;Das Wort &amp;quot;&#039;&#039;zuvor&#039;&#039;&amp;quot; bezog sich dabei wohl eher auf den Antrag als auf die schlussendliche gerichtliche Anordnung (vgl Artikel 3 Absatz 1 Vorschlag AILD, etwa auch in englischer Sprachfassung).&amp;lt;/ref&amp;gt; Weiters müssten diese „[z]&#039;&#039;ur Stützung seines Antrags&#039;&#039; [...] &#039;&#039;die Plausibilität&#039;&#039; [...] [ihres] &#039;&#039;Schadensersatzanspruchs durch die Vorlage von Tatsachen und Beweismitteln ausreichend belegen&#039;&#039;“ (jeweils Artikel 3 Absatz 1 Vorschlag AILD), während (tatsächliche) &#039;&#039;Kläger&#039;&#039; als Voraussetzung für die gerichtliche Anordnung in Verbindung mit einem einschlägigen Schadenersatzanspruch „&#039;&#039;alle angemessenen Anstrengungen unternommen&#039;&#039;“ haben müssten, „&#039;&#039;die einschlägigen Beweismittel vom Beklagten zu beschaffen&#039;&#039;“ (Artikel 3 Absatz 2 Vorschlag AILD). &lt;br /&gt;
&lt;br /&gt;
Erwägungsgrund 17 Vorschlag AILD hielt in diesem Kontext (tendenziell im Zusammenhang mit &#039;&#039;potenziellen Klägern&#039;&#039;) auch fest: „&#039;&#039;Die Anordnung der Offenlegung sollte zu einer Vermeidung unnötiger Rechtsstreitigkeiten und Kosten, die durch ungerechtfertigte oder wahrscheinlich erfolglose Ansprüche verursacht werden, für die jeweiligen Prozessparteien führen&#039;&#039;“.&lt;br /&gt;
&lt;br /&gt;
Die Offenlegung sollte schließlich durch die entsprechenden nationale Gericht angeordnet werden.&amp;lt;ref&amp;gt;Vgl insbesondere Artikel 3 und Erwägungsgrund 19 Vorschlag AILD.&amp;lt;/ref&amp;gt; Dabei wären gemäß die &#039;&#039;&#039;Erforderlichkeit und Verhältnismäßigkeit zu beachten&#039;&#039;&#039; gewesen, wobei die Interessen aller Parteien (inklusive betroffener Dritter), wie insbesondere in Hinblick auf &#039;&#039;&#039;Geschäftsgeheimnisse&#039;&#039;&#039; im Sinne des Artikels 2 Absatz 1 der Richtlinie (EU) 2016/943, zu berücksichtigen gewesen wären (siehe im Detail Artikel 3 Absatz 4 Vorschlag AILD).&amp;lt;ref&amp;gt;Zum Hintergrund ist auf insbesondere auf Erwägungsgrund 19 Vorschlag AILD zu verweisen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Dabei sollten die Mitgliedstaaten den jeweiligen nationalen Gerichten Befugnisse für die Anordnung spezifischer Maßnahmen zur entsprechenden &#039;&#039;&#039;Beweismittelsicherung&#039;&#039;&#039; zugestehen (Artikel 3 Absatz 3 Vorschlag AILD) und jeweils &#039;&#039;&#039;angemessene Rechtsbehelfe gegen Anordnungen&#039;&#039;&#039; zur Offenlegung oder Beweismittelsicherung für die Personen vorsehen, gegen die diese ergehen (Artikel 3 Absatz 4 letzter Satz).           &lt;br /&gt;
&lt;br /&gt;
Für den Fall, dass ein entsprechender &#039;&#039;Beklagter&#039;&#039; &amp;quot;&#039;&#039;im Rahmen eines Schadensersatzanspruchs&#039;&#039;&amp;quot; einer entsprechenden gerichtlichen Anordnung zur Beweismitteloffenlegung oder -sicherung nicht nachkommt, ordnete Artikel 3 Absatz 5 Vorschlag AILD schließlich die &#039;&#039;&#039;Vermutung&#039;&#039;&#039; für das jeweilige Gericht an, „&#039;&#039;dass der Beklagte &#039;&#039;&#039;gegen seine einschlägige Sorgfaltspflicht verstößt&#039;&#039;&#039;&#039;&#039;&amp;quot; (Hervorhebungen hinzugefügt). Das sollte &#039;&#039;insbesondere&#039;&#039; dann schlagend werden, wenn die entsprechend geforderten Beweismittel Umstände rund um die Verletzung jener AI Act-Anforderungen durch Nutzer bzw Anbieter und Personen, die Anbieter-Pflichten gemäß AI Act(-Vorschlag) unterliegen, im Zusammenhang mit Hochrisiko-KI nachweisen sollen, die gemäß Artikel 4 Absatz 2 bzw 3 für die Kausalitätsvermutung nach dem Vorschlag AILD relevant wären. Vgl zu dieser Vermutung auch schon oben unter [[KI-Haftungsregelungen#Kausalitätsvermutung (Artikel 4)|Kausalitätsvermutung (Artikel 4)]].&lt;br /&gt;
----&lt;br /&gt;
&lt;br /&gt;
== Produkthaftungsrichtlinie neu ==&lt;br /&gt;
&lt;br /&gt;
=== Allgemeines und Übergangsbestimmungen ===&lt;br /&gt;
Neben dem Vorschlag zur AILD enthielt auch schon der Vorschlag für eine neue Produkthaftungsrichtlinie Aspekte, die für die Haftung im Zusammenhang mit KI relevant sind.&amp;lt;ref&amp;gt;Siehe grundlegend Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final,  insbesondere Seite 6.&amp;lt;/ref&amp;gt; Dieser Vorschlag, der auf eine Ersetzung der aus den 1980ern stammenden, alten Produkthaftungsrichtlinie&amp;lt;ref&amp;gt;Richtlinie 85/374/EWG des Rates vom 25. Juli 1985 zur Angleichung der Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Haftung für fehlerhafte Produkte, ABl L 1985/210, 29.&amp;lt;/ref&amp;gt; abzielte, wurde prinzipiell als Paket mit dem Vorschlag für die AILD schon 2022 von der Kommission vorgelegt.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 5 und 8; vgl auch Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2 und 3.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Im Gegensatz zur AILD ist die neue Produkthaftungsrichtlinie (im Folgenden: PHRL neu) aber mittlerweile bereits im Amtsblatt veröffentlicht worden und 2024 prinzipiell in Kraft getreten.&amp;lt;ref&amp;gt;Siehe Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024 (insbesondere Artikel 23).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die PHRL neu gilt allerdings erst für Produkte, die &#039;&#039;&#039;nach dem 9. 12. 2026&#039;&#039;&#039; in Verkehr gebracht oder in Betrieb genommen werden (Artikel 2 Absatz 1 PHRL neu). Die Mitgliedstaaten müssen diese demnach &#039;&#039;&#039;bis zum 9. 12. 2026&#039;&#039;&#039; in nationales Recht umsetzen (Artikel 22 Absatz 1 PHRL neu). &#039;&#039;&#039;Mit Wirkung vom 9. 12. 2026&#039;&#039;&#039; wird grundsätzlich auch die alte Produkthaftungsrichtlinie aufgehoben, wenngleich diese auch weiterhin für Produkte gelten soll, die &amp;quot;&#039;&#039;vor diesem Zeitpunkt in Verkehr gebracht oder in Betrieb genommen wurden&#039;&#039;&amp;quot; (Artikel 21 PHRL neu).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;In Deutschland etwa wurde zwischenzeitlich bereits ein Entwurf für ein entsprechendes Gesetz vorgelegt.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Siehe dazu etwa &#039;&#039;Redaktion beck-aktuell&#039;&#039;, Verlag C.H.BECK, 11. September 2025 von js (dpa), Produkthaftung soll auch für KI und Software-Fehler gelten, https://beck-online.beck.de/Dokument?vpath=bibdata%2Freddok%2Fbecklink%2F2035621.htm&amp;amp;pos=16&amp;amp;hlwords=on (abgerufen am 29. 11. 2025); vgl dazu auch &#039;&#039;Hoeren/Pinelli,&#039;&#039; Das neue Produkthaftungsrecht: Zwischen effektivem Verbraucherschutz und unternehmerischer Freiheit, MMR 2025, 767.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Schon die alte Produkthaftungsrichtlinie regelt prinzipiell eine verschuldensunabhängige Haftung im Zusammenhang mit fehlerhaften Produkten für bestimmte davon zu unterscheidende Schäden, wobei die Haftung vorrangig den Produkthersteller trifft.&amp;lt;ref&amp;gt;Vgl &#039;&#039;Handig&#039;&#039;, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196).&amp;lt;/ref&amp;gt; Dies ist im Wesentlichen auch Kern der PHRL neu, sie bringt allerdings auch eine Reihe von Neuerungen bzw Adaptionen mit sich, die insbesondere auch KI betreffen. Neben &#039;&#039;Produkten im digitalen Zeitalter&#039;&#039; sollte die PHRL neu insbesondere auch etwa die Kreislaufwirtschaft berücksichtigen.&amp;lt;ref&amp;gt;Vgl insgesamt Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 2, 6, 11 und 12, Erwägungsgrund 2, Artikel 1; vgl zum Entwurfsstadium auch &#039;&#039;Handig&#039;&#039;, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107.&amp;lt;/ref&amp;gt; Im Folgenden sollen ein grober Überblick gegeben werden ausgewählte Aspekte dargestellt werden. &lt;br /&gt;
&lt;br /&gt;
=== Neuer Produktbegriff und grundlegender Regelungsgegenstand ===&lt;br /&gt;
Im Rahmen der alten Rechtslage gab es umfassende Unklarheiten (bzw potenzielle Regelungslücken) in Hinblick darauf, inwieweit Software vom Produktbegriff erfasst ist.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; Daraufhin sollte &#039;&#039;&#039;Software&#039;&#039;&#039; (bzw insbesondere auch &#039;&#039;&#039;KI&#039;&#039;&#039;) in den Produktbegriff aufgenommen werden.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 6, 9, 11, 12 und 14, Erwägungsgrund 12, Artikel 4 Ziffer 1&amp;lt;mark&amp;gt;; vgl insgesamt auch etwa &#039;&#039;Thöne,&#039;&#039; Die „digitale“ Erweiterung der Produkthaftungsrichtlinie, MMR 2025, 408 (409 mwN).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Der schlussendlich beschlossene, neue Produktbegriff umfasst im Detail jetzt &#039;&#039;&#039;alle beweglichen Sachen&#039;&#039;&#039;, &#039;&#039;&#039;selbst wenn diese in andere bewegliche oder unbewegliche Sachen integriert&#039;&#039;&#039; oder &#039;&#039;&#039;mit diesen verbunden&#039;&#039;&#039; sind, und explizit auch &#039;&#039;&#039;Software&#039;&#039;&#039;&amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Siehe auch etwa &#039;&#039;Ebers&#039;&#039;, KIR 2025, 252 (253 mwN).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;,&amp;lt;/mark&amp;gt; Elektrizität, digitale Konstruktionsunterlagen und Rohstoffe (Artikel 4 Ziffer 1 PHRL neu). Nach Erwägungsgrund 13 PHRL neu sind unter &#039;&#039;Software&#039;&#039; auch etwa &#039;&#039;&#039;KI-Systeme&#039;&#039;&#039; zu verstehen.&amp;lt;ref&amp;gt;Vgl auch Erwägungsgrund 3 PHRL neu und zum Entwurfsstadium &#039;&#039;Handig&#039;&#039;, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (197); in Erwägungsgrund 13 PHRL neu wird zudem auf die &#039;&#039;Anbieter von KI-Systemen&#039;&#039; gemäß AI Act Bezug genommen, weshalb davon auszugehen sein wird, dass mit &#039;&#039;KI-Systemen&#039;&#039; wohl jene im Sinne des AI Act (Artikel 3 Ziffer 1 AI Act) gemeint sind. &amp;lt;/ref&amp;gt; Mit der Adressierung von &#039;&#039;Software&#039;&#039; wurde dabei wohl Technologieneutralität bezweckt.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 14&amp;lt;mark&amp;gt;; vgl dazu zudem &#039;&#039;Weiler/Bell/Wilkens&#039;&#039;, Die neue Produkthaftungsrichtlinie - Auswirkungen auf und Implikationen für die Praxis, RIW 2025, 1 (2).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Nach Artikel 2 Absatz 2 PHRL neu soll „&#039;&#039;freie und quelloffene Software, die außerhalb einer Geschäftstätigkeit entwickelt oder bereitgestellt wird&#039;&#039;“, von deren Anwendungsbereich ausgenommen sein&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;&#039;&#039;Ebers&#039;&#039;, KIR 2025, 252 (253).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;, was sich aber an sich auch bereits aus der Systematik (des Anwendungsbereichs) der Richtlinie ergibt&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Siehe dazu im Detail &#039;&#039;Thöne,&#039;&#039; MMR 2025, 408 (409 f mwN).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Trotz der Neufassung des Produktbegriffs ergeben sich allerdings Auslegungsfragen hinsichtlich der Anwendbarkeit der PHRL neu. So soll im Rahmen der PHRL neu in gewisser Weise prinzipiell auch für &#039;&#039;&#039;&#039;&#039;Komponenten&#039;&#039;&#039;&#039;&#039; gehaftet werden (vgl im Detail insbesondere Artikel 8 Absatz 1, Artikel 11 PHRL neu), worunter körperliche oder nicht-körperliche Gegenstände, Rohstoffe oder verbundene Dienste verstanden werden, die in ein Produkt integriert oder damit verbunden sind (Artikel 4 Ziffer 4 PHRL neu). Mit &#039;&#039;&#039;&#039;&#039;verbundenen Diensten&#039;&#039;&#039;&#039;&#039; sind digitale Dienste gemeint, welche derart in ein Produkt integriert oder mit diesem verbunden sind, dass dieses ohne sie (eine oder mehrere seiner) Funktionen nicht erfüllen könnte (Artikel 4 Ziffer 3 PHRL neu). Dies ist vor allem deswegen relevant, weil nach Erwägungsgrund 17 PHRL neu prinzipiell &#039;&#039;&#039;Dienstleistungen&#039;&#039;&#039; per se nicht von der Richtlinie umfasst sein sollten. Daher könnten sich in der Folge voraussichtlich schwierige Abgrenzungsfragen, insbesondere in Hinblick auf den entsprechenden Einfluss auf die Funktionsweise des Produkts, stellen.&amp;lt;ref&amp;gt;Vgl zum Entwurfsstadium im Zusammenhang mit &#039;&#039;digitalisierten Wissensinhalten&#039;&#039; auch &#039;&#039;Handig&#039;&#039;, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196 f); vgl grundlegend dazu insbesondere auch Erwägungsgrund 17 PHRL neu&amp;lt;mark&amp;gt;; vgl zur Problematik im Allgemeinen weiters: &#039;&#039;Weiler/Bell/Wilkens&#039;&#039;, RIW 2025, 1 (2) sowie &#039;&#039;Ebers&#039;&#039;, KIR 2025, 252 (254).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dem Grunde nach ähnlich verhält sich dies bei der Abgrenzung zwischen (Software-)Produkten und verbundenen Diensten, bei der insbesondere die Frage nach der Relevanz für die Funktionsfähigkeit des gesamten Produkts bedeutsam sein könnte.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Siehe dazu &#039;&#039;Schenk&#039;&#039;, Produkthaftung für falsche KI-Antworten nach der neuen Produkthaftungs-RL?, LTZ 2025, 184 (II.2.) mit Darstellung eines entsprechenden Auslegungsansatzes, wonach das Herstellen oder Entfallenlassen der &amp;quot;Funktionsfähigkeit des &#039;&#039;gesamten Produktes als solches&amp;quot;&#039;&#039; schon ein eigenständiges Produkt bedeuten sollte; siehe dabei weiterführend auch ad potenzielle Informationshaftung im Zusammenhang mit verbundenen Diensten: &#039;&#039;derselbe&#039;&#039; (VI.).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Zudem wird in Erwägungsgrund 13 PHRL neu in Bezug auf Software wiederum angemerkt, dass diese „&#039;&#039;unabhängig von der Art ihrer Bereitstellung oder Nutzung&#039;&#039;“, demnach „&#039;&#039;unabhängig davon, ob die Software auf einem Gerät gespeichert oder über ein Kommunikationsnetz oder Cloud-Technologien abgerufen oder durch ein Software-as-a-Service-Modell bereitgestellt wird&#039;&#039;“ als &#039;&#039;Produkt&#039;&#039; erfasst sein sollte. Daraus könnten sich demnach wiederum Abgrenzungsfragen in Hinblick auf &#039;&#039;&#039;Dienstleistungen&#039;&#039;&#039; ergeben, die mit Software verbunden sind.&amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl auch etwa &#039;&#039;Ebers&#039;&#039;, KIR 2025, 252 (254 mwN).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; Außerdem sollen &#039;&#039;digitale Dateien&#039;&#039; laut Erwägungsgrund 16 PHRL neu per se keine &#039;&#039;Produkte&#039;&#039; darstellen (abgesehen von gewissen &#039;&#039;digitale Konstruktionsunterlagen&#039;&#039;).  Weiters sollen laut Erwägungsgrund 13 PHRL neu auch &#039;&#039;Informationen&#039;&#039; nicht als &#039;&#039;Produkt&#039;&#039; zu sehen sein. Die Produkthaftungsregelungen sollten demnach „&#039;&#039;nicht für den Inhalt digitaler Dateien wie Mediendateien oder E-Books oder den reinen Quellcode von Software gelten&#039;&#039;“. In dem Zusammenhang scheint in der Folge &amp;lt;mark&amp;gt;einerseits&amp;lt;/mark&amp;gt; überlegenswert, inwieweit das auch &#039;&#039;&#039;Komponenten&#039;&#039;&#039; betreffen soll, also inwiefern etwa Sourcecode, oder auch Trainingsdaten für eine KI, eine (fehlerhafte) Komponente eines Softwareprodukts darstellen könnten.&amp;lt;ref&amp;gt;Dabei sollte wohl insbesondere die Frage zentral sein, inwieweit ein quasi funktional essentieller &#039;&#039;nicht-körperlicher Gegenstand&#039;&#039; vorliegt, wobei Erwägungsgrund 20 PHRL neu implizit etwa Daten, wie ursprünglich auf einer Festplatte gespeicherte digitale Dateien, als &#039;&#039;nicht-körperliche Vermögensgegenstände&#039;&#039; sieht; vgl zum Entwurfsstadium im Zusammenhang mit digitalisierten Wissensinhalten erneut auch &#039;&#039;Handig&#039;&#039;, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196 f).&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Zudem wird in der Literatur dabei auch in Frage gestellt, wann bei fehlerhaften Informationen als Output von Software bzw KI eine Haftung eintritt&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Ebers&#039;&#039;, KIR 2025, 252 (253 f mwN); vgl grundlegend auch &#039;&#039;Thöne&#039;&#039;, MMR 2025, 408 (411 f mwN).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;, insbesondere wenn die Schädigung (basierend auf solch einem Output) nicht direkt durch die Software, sondern von Nutzer*innen ausgeführt wird.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Schenk&#039;&#039;, LTZ 2025, 184 (III. und IV.).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dabei wird insbesondere argumentiert, dass bei reiner Übermittlung fehlerhafter Informationen durch eine Software keine Haftung eintreten sollte, sehr wohl allerdings im Fall, dass die Software fehlerhafte Informationen selbst erzeugt (wie etwa eine Diagnose oder Behandlung durch eine Software als Medizinprodukt).&amp;lt;ref name=&amp;quot;:3&amp;quot;&amp;gt;&amp;lt;mark&amp;gt;Vgl erneut &#039;&#039;Schenk&#039;&#039;, LTZ 2025, 184 (IV.); &#039;&#039;Ebers&#039;&#039;, KIR 2025, 252 (253 f mwN); vgl tendenziell noch differenzierter dabei: &#039;&#039;Thöne&#039;&#039;, MMR 2025, 408 (411 f mwN).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Eine wichtige Voraussetzung für die Haftung ist die &#039;&#039;&#039;Fehlerhaftigkeit&#039;&#039;&#039; (eines Produkts bzw einer Komponente&amp;lt;ref&amp;gt;Vgl im Detail Artikeln 5, 6, 7 und 8 PHRL neu, wobei insbesondere anzumerken ist, dass der Wortlaut von Artikel 5, worin der Schadenersatzanspruch grundlegend statuiert wird, nur auf &#039;&#039;fehlerhafte Produkte&#039;&#039; und nicht auch &#039;&#039;fehlerhafte Komponenten&#039;&#039; Bezug nimmt.&amp;lt;/ref&amp;gt;), die in Artikel 7 PHRL neu in Hinblick auf Produkte&amp;lt;ref&amp;gt;&#039;&#039;Komponenten&#039;&#039; finden dabei wiederum grundsätzlich keine Erwähnung.&amp;lt;/ref&amp;gt; prinzipiell damit umschrieben wird, dass das Produkt &amp;quot;&#039;&#039;nicht die Sicherheit bietet&#039;&#039;&amp;quot;, die Personen erwarten dürfen oder die von Unions- oder nationalem Recht gefordert wird. Artikel 7 Absatz 2 PHRL neu regelt in der Folge, dass sämtliche Umstände bei dieser Beurteilung Berücksichtigung finden müssen und zählt dazu einige Aspekte auf, wie auch etwa die &amp;quot;&#039;&#039;einschlägigen Anforderungen an die Produktsicherheit, einschließlich sicherheitsrelevanter Cybersicherheitsanforderungen&amp;quot;&#039;&#039; (Buchstabe f). Dazu ist allerdings anzumerken, dass die Fehlerhaftigkeit des Produkts &#039;&#039;&#039;vermutet&#039;&#039;&#039; werden soll, wenn der Kläger nachweist, dass das Produkt &#039;&#039;&#039;&amp;lt;u&amp;gt;verbindliche&amp;lt;/u&amp;gt;&#039;&#039;&#039; &#039;&#039;&#039;Produktsicherheitsanforderungen&#039;&#039;&#039; gemäß Unions- oder nationalem Recht nicht erfüllt, sofern diese den Schutz vor dem Risiko des Schadens, den die geschädigte Person erlitten hat, gewährleisten sollen (Artikel 10 Ansatz 2 Buchstabe b PHRL neu). Siehe weiters noch unter [[KI-Haftungsregelungen#AI Act und PHRL neu|Synergien; AI Act und PHRL neu]]. &amp;lt;mark&amp;gt;In der Aufzählung von Artikel 7 Absatz 2 PHRL neu finden sich zudem auch „&#039;&#039;Auswirkungen der Fähigkeit des Produkts, nach seinem Inverkehrbringen oder seiner Inbetriebnahme weiter zu lernen oder neue Funktionen zu erwerben, auf das Produkt&#039;&#039;“ (Buchstabe c), was insbesondere in Hinblick auf KI zu sehen sein dürfte.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Siehe dazu &#039;&#039;Ebers&#039;&#039;, KIR 2025, 252 (256) unter anderem mit Verweis auf Erwägungsgrund 32 PHRL neu; vgl auch &#039;&#039;Schucht&#039;&#039;, Die neue EU-Produkthaftungsrichtlinie 2024/2853, https://www.ibf-solutions.com/fachbeitraege/news-zur-eu-produkthaftungsrichtlinie (abgerufen am 4. 12. 2025); grundlegend zu &#039;&#039;lernenden Systemen&#039;&#039; im Zusammenhang mit dem deutschen Entwurf zur neuen Produkthaftung vgl weiters &#039;&#039;Hoeren/Pinelli,&#039;&#039; MMR 2025, 767 (767).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Außerdem erscheinen Überlegungen zum &#039;&#039;vernünftigerweise vorhersehbaren Gebrauch&#039;&#039; (Artikel 7 Absatz 2 Buchstabe b PHRL neu), etwa vor dem Hintergrund der weitreichenden Einsatzmöglichkeiten von KI-Chatbots bedeutsam.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Siehe dazu &#039;&#039;Schenk&#039;&#039;, LTZ 2025, 184 (V.1.); weiters zu im Zusammenhang mit Software relevanten Aspekten: &#039;&#039;Weiler/Bell/Wilkens&#039;&#039;, RIW 2025, 1 (3 mwN).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Frage, wer welche Schäden geltend machen kann, wird insbesondere in den Artikeln 5 und 6 der PHRL neu adressiert. Demnach soll zunächst grundsätzlich „&#039;&#039;jede natürliche Person, die einen durch ein fehlerhaftes Produkt verursachten Schaden erleidet&#039;&#039;&amp;quot;, einen Schadenersatzanspruch gemäß der PHRL neu haben, wobei dieser auch durch gewisse andere Personen geltend gemacht werden können soll (vgl im Detail Artikel 5 PHRL neu). Dabei sollen lediglich folgende Kategorien von Schäden grundsätzlich ersetzt werden (Artikel 6 Absatz 1 PHRL neu): &lt;br /&gt;
&lt;br /&gt;
* Tod oder Körperverletzung, einschließlich medizinisch anerkannter Beeinträchtigungen der psychischen Gesundheit &lt;br /&gt;
* Beschädigung oder Zerstörung von Sachen, &#039;&#039;&#039;außer:&#039;&#039;&#039; &lt;br /&gt;
** das fehlerhafte Produkt selbst &lt;br /&gt;
** ein Produkt, das durch eine fehlerhafte Komponente dieses Produkts beschädigt wurde, die vom Hersteller des Produkts oder unter der Kontrolle dieses Herstellers in das Produkt integriert oder mit diesem verbunden wurde&lt;br /&gt;
** Sachen, die ausschließlich für berufliche Zwecke verwendet werden&lt;br /&gt;
* Vernichtung oder Beschädigung von Daten, die nicht für berufliche Zwecke verwendet werden&amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl dazu, dass somit essenzielle potenziell schädliche Fälle von KI-Anwendung, wie etwa Diskriminierungen durch KI im Bewerbungsverfahren, nicht in den Anwendungsbereich fallen würden sowie zu weiterer Kritik hinsichtlich der Schadensabdeckung: &#039;&#039;B.A. Koch&#039;&#039;, 22. ÖJT Band II/1, 24 f mwN; vgl zu Datenbeschädigungen und -Vernichtungen weiters Erwägungsgsrund 20 PHRL neu und dazu auch &#039;&#039;Weiler/Bell/Wilkens&#039;&#039;, RIW 2025, 1 (3).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dabei sind insbesondere sich daraus ergebende Vermögensschäden abgedeckt (Artikel 6 Absatz 2 erster Satz PHRL neu). Zudem sollen aber auch entsprechende immaterielle Schäden abgedeckt werden, &amp;quot;&#039;&#039;soweit für Schäden dieser Art nach nationalem Recht eine Entschädigung verlangt werden kann&#039;&#039;&amp;quot; (Artikel 6 Absatz 2 zweiter Satz PHRL neu).&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl bzgl Deutschland etwa &#039;&#039;Hoeren/Pinelli&#039;&#039;, MMR 2025, 767 (768).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Die PHRL neu enthält im Gegensatz zur alten Produkthaftungsrichtlinie auch keinen Selbstbehalt für Sachschäden mehr.&amp;lt;ref&amp;gt;Vgl zum Entwurfsstadium &#039;&#039;Handig&#039;&#039;, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (197) sowie Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seiten 1 und 10.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
Welcher Wirtschaftsakteur in weiterer Folge für entsprechende Schäden haftbar gemacht werden kann, wird im Detail vor allem in Artikel 8 PHRL neu geregelt. Dies betrifft insbesondere die Hersteller der fehlerhaften Produkte&amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Auch hierbei soll es allerdings Neuerungen geben, siehe etwa: &#039;&#039;Claßen&#039;&#039;, Erhöhte Haftungsrisiken für Quasi-Hersteller in der EU, ZfPC 2025, 153.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; und die Hersteller von fehlerhaften Komponenten, die &amp;quot;&#039;&#039;unter der Kontrolle des Herstellers in ein Produkt integriert oder damit verbunden&#039;&#039;&amp;quot;&amp;lt;ref&amp;gt;Zur Definition des Begriffs „&#039;&#039;Kontrolle des Herstellers&#039;&#039;“ siehe Artikel 4 Z 5 PHRL neu&amp;lt;mark&amp;gt;; diese ist etwa auch im Zusammenhang mit den für die Haftung beachtlichen Zeitpunkten relevant, vgl dazu insbesondere Artikel 7 Absatz 2 Buchstabe e PHRL neu und weiterführend auch &#039;&#039;Schucht&#039;&#039;, Die neue EU-Produkthaftungsrichtlinie 2024/2853, https://www.ibf-solutions.com/fachbeitraege/news-zur-eu-produkthaftungsrichtlinie (abgerufen am 28. 11. 2025); siehe auch noch im Folgenden.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; wurden und dessen Fehlerhaftigkeit verursacht haben (Artikel 8 Absatz 1 Unterabsatz 1 Buchstaben a und b PHRL neu). Zudem soll die Haftung des Produktherstellers nach Artikel 8 Absatz 1 Unterabsatz 1 Buchstabe a PHRL neu auch Schäden umfassen, &amp;quot;&#039;&#039;die durch eine fehlerhafte Komponente verursacht werden, wenn diese unter der Kontrolle des Herstellers in ein Produkt integriert oder damit verbunden wurde&#039;&#039;&amp;quot;.&amp;lt;ref&amp;gt;Siehe Artikel 8 Absatz 1 Unterabsatz 2 PHRL neu, wobei allerdings erneut auch auf die Formulierung von Artikel 5 PHRL neu hinzuweisen ist.&amp;lt;/ref&amp;gt; Daneben sollen unter Umständen auch weitere Personen in Haftung genommen werden können (siehe im Detail Artikel 8 Absatz 2 und folgende PHRL neu).&amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Zur entsprechenden Ausdehnung des subjektiven Anwendungsbereichs gegenüber der alten PHRL siehe etwa &#039;&#039;Weiler/Bell/Wilkens&#039;&#039;, RIW 2025, 1 (2 mwN).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die verschiedenen Akteure werden grundsätzlich in Artikel 4 PHRL neu definiert, so etwa der &#039;&#039;Hersteller&#039;&#039; in Ziffer 10&amp;lt;ref&amp;gt;Dabei wird jedoch wiederum nur auf &#039;&#039;Produkte&#039;&#039; und nicht auf &#039;&#039;Komponenten&#039;&#039; explizit Bezug genommen.&amp;lt;/ref&amp;gt;. Im Übrigen sollen nach Erwägungsgrund 13 PHRL neu etwa die &#039;&#039;Anbieter von KI-Systemen&#039;&#039; im Sinne des AI Act als &#039;&#039;Hersteller&#039;&#039; gelten.&amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Weiterführende Überlegungen dazu etwa in: BeckOK KI-Recht/Henke, 3. Ed. 1.8.2025, KI-VO Art. 16 Rn. 62.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Weitere, für KI spezifisch relevante Regelungen ===&lt;br /&gt;
Die PHRL neu enthält weitere im Zusammenhang mit KI spezifisch relevante Regelungen (bereits oben genannt wurden etwa Aspekte der Aufzählung in Artikel 7 Absatz 2). In Verbindung mit KI besonders relevant sind der Begründung des Richtlinienvorschlags und den Erwägungsgründen der PHRL neu folgend weiters insbesondere bestimmte Beweiserleichterungen gemäß Artikel 10 PHRL neu und gewisse Haftungsszenarien, die sich aus Artikel 11 PHRL neu ergeben.&amp;lt;ref&amp;gt;Vgl Erwägungsgründe 40, 48 und 50 PHRL neu; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&amp;lt;u&amp;gt;spezifisch relevante Beweiserleichterungen gemäß Artikel 10 PHRL neu:&amp;lt;/u&amp;gt;&#039;&#039;&#039; Prinzipiell soll der Kläger die Fehlerhaftigkeit des Produkts, den erlittenen Schaden und den Kausalzusammenhang zwischen jener Fehlerhaftigkeit und jenem Schaden zu beweisen haben (Artikel 10 Absatz 1 PHRL neu). In Artikel 10 Absatz 4 PHRL neu sind allerdings gewisse Beweiserleichterungen insbesondere in Hinblick auf &#039;&#039;&#039;&#039;&#039;komplexe Fälle&#039;&#039;&#039;&#039;&#039; geregelt worden, zu denen nach der Begründung des Richtlinienvorschlags auch &amp;quot;&#039;&#039;bestimmte Fälle im Zusammenhang mit KI-Systemen gehören könnten&#039;&#039;&amp;quot;, was sich zudem in den Erwägungsgründen der PHRL neu widerspiegelt.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6; Erwägungsgrund 48 PHRL neu.&amp;lt;/ref&amp;gt; Dabei sollen nationale Gerichte von der &amp;quot;&#039;&#039;Fehlerhaftigkeit des Produkts oder dem ursächlichen Zusammenhang zwischen dessen Fehlerhaftigkeit und dem Schaden oder beidem&#039;&#039;&amp;quot; ausgehen. Voraussetzung dafür soll nunmehr einerseits sein, dass der Kläger &amp;quot;&#039;&#039;insbesondere aufgrund der technischen oder wissenschaftlichen Komplexität&amp;quot;&#039;&#039; übermäßige Schwierigkeiten damit hat, „&#039;&#039;die Fehlerhaftigkeit des Produkts oder den ursächlichen Zusammenhang zwischen dessen Fehlerhaftigkeit und dem Schaden oder beides zu beweisen&#039;&#039; [...]&amp;quot; (Artikel 10 Absatz 4 Buchstabe a PHRL neu). Andererseits müsste der Kläger nachgewiesen haben, „&#039;&#039;dass es wahrscheinlich ist, dass das Produkt fehlerhaft ist oder dass ein ursächlicher Zusammenhang zwischen der Fehlerhaftigkeit des Produkts und dem Schaden besteht, oder beides&#039;&#039;&amp;quot; (Artikel 10 Absatz 4 Buchstabe b PHRL neu).&amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Siehe hierzu detaillierter etwa &#039;&#039;Weiler/Bell/Wilkens&#039;&#039;, RIW 2025, 1 (4).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; Zudem müssten diese Voraussetzungen trotz der Offenlegung von Beweismitteln gemäß Artikel 9 PHRL neu bzw &amp;quot;&#039;&#039;unter Berücksichtigung aller relevanten Umstände des Falles&#039;&#039;&amp;quot; vorliegen (Artikel 10 Absatz 4 PHRL neu). Erwägungsgrund 48 PHRL neu nennt als Kriterien für die &#039;&#039;&#039;technische oder wissenschaftliche Komplexität&#039;&#039;&#039; beispielsweise &amp;quot;&#039;&#039;&#039;&#039;&#039;die Komplexität der verwendeten Technologie&#039;&#039;&#039;&#039;&#039;&amp;quot; (und dabei etwa &#039;&#039;&#039;maschinelles Lernen&#039;&#039;&#039;) und die &amp;quot;&#039;&#039;&#039;&#039;&#039;die Komplexität der vom Kläger zu analysierenden Informationen und Daten und die Komplexität des ursächlichen Zusammenhang&#039;&#039;&#039;&#039;&#039;&amp;quot;&amp;lt;ref&amp;gt;Hervorhebungen jeweils hinzugefügt.&amp;lt;/ref&amp;gt;, was auch mit der potenziell geforderten &#039;&#039;&#039;&#039;&#039;Erläuterung der&#039;&#039;&#039;&#039;&#039; &#039;&#039;&#039;&#039;&#039;Funktionsweise von KI-Systemen&#039;&#039;&#039;&#039;&#039; in Verbindung gebracht wird. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;In der Literatur wird zudem die Vermutung gemäß Artikel 10 Absatz 2 Buchstabe c PHRL neu (Vermutung von Fehlerhaftigkeit im Zusammenhang mit &#039;&#039;offensichtlichen Funktionsstörungen&#039;&#039;) in Verbindung mit KI als vermutlich besonders relevant erachtet.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Siehe dazu (und Artikel 10 PHRL neu im Allgemeinen) &#039;&#039;Ebers&#039;&#039;, KIR 2025, 252 (257 f mwN) mit Verweis auf auf &amp;quot;&#039;&#039;unerwartete Verhaltensweisen&#039;&#039;&amp;quot; bzw &amp;quot;&#039;&#039;autonomiebedingte&#039;&#039;[s] &#039;&#039;(Fehl-)Verhalten&#039;&#039;&amp;quot;.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Vermutungen und Annahmen nach Artikel 10 Absätze 2-4 PHRL neu sollen schließlich gemäß dessen Absatz 5 vom Beklagten widerlegbar sein.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&amp;lt;u&amp;gt;spezifisch relevante Haftungsszenarien gemäß Artikel 11 PHRL neu:&amp;lt;/u&amp;gt;&#039;&#039;&#039; Artikel 11 PHRL neu enthält demgegenüber im Allgemeinen Regelungen darüber, wann sich jene Wirtschaftsakteure, die nach Artikel 8 PHRL prinzipiell haftbar sein sollen, jeweils von einer Haftung freibeweisen können sollen. Dies betrifft unter anderem den Fall, dass der betreffende Wirtschaftsakteur beweist, &amp;quot;&#039;&#039;dass es wahrscheinlich ist, dass die Fehlerhaftigkeit, die den Schaden verursacht hat, zum Zeitpunkt des Inverkehrbringens, der Inbetriebnahme oder — bei einem Lieferanten — des Bereitstellens auf dem Markt noch nicht bestanden hat oder dass diese Fehlerhaftigkeit erst nach dem betreffenden Zeitpunkt entstanden ist&#039;&#039;&amp;quot; (Artikel 11 Absatz 1 Buchstabe c PHRL neu). Wiederum in Bezug darauf enthält Artikel 11 Absatz 2 PHRL neu allerdings Ausnahmen, im Rahmen derer entsprechende Wirtschaftsakteure dennoch prinzipiell haftbar bleiben sollen. Diese beziehen sich darauf, dass die Fehlerhaftigkeit eines Produkts einen der Gründe hat, die in der Bestimmung genannt werden, sofern der jeweilige Grund zudem der &#039;&#039;Kontrolle des Herstellers&#039;&#039; untersteht. Die aufgezählten Ursachen umfassen unter anderem &#039;&#039;&#039;verbundene Dienste&#039;&#039;&#039; und &#039;&#039;&#039;Software&#039;&#039;&#039; (inklusive Software-Updates&amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Im Allgemeinen zur Haftung in diesem Zusammenhang siehe weiterführend etwa &#039;&#039;Thöne,&#039;&#039; MMR 2025, 408 (410 mwN) sowie abseits der PHRL neu bzgl Österreich auch &#039;&#039;Veith/Walther&#039;&#039;, Das Software-Update im Schadenersatzrecht, ÖJZ 2025/59.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; oder -Upgrades) sowie &#039;&#039;&#039;&#039;&#039;wesentliche Änderungen&#039;&#039;&#039;&#039;&#039; des Produkts, die wiederum im Detail in Artikel 4 Ziffer 18 PHRL neu definiert werden. Die Erwägungsgründe verweisen in Zusammenhang damit wiederum etwa auf maschinelles Lernen bzw fortlaufend lernende KI-Systeme.&amp;lt;ref&amp;gt;Vgl insbesondere Erwägungsgründe 40 und 50 PHRL neu.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Hierbei wird demnach hinsichtlich dem relevanten Zeitpunkt an die weiter bestehende Kontrolle von Herstellern über entsprechende Produkte angeknüpft.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Siehe &#039;&#039;Lutz&#039;&#039;, Fahrzeugdaten: Datenzugangsansprüche, Sicherheitsrisiken und die neue Produkthaftungsrichtlinie, ZfPC 2025, 154 mwN.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Gemäß Artikel 8 Absatz 2 soll zudem im Allgemeinen &amp;quot;[j]&#039;&#039;ede natürliche oder juristische Person, die ein Produkt außerhalb der Kontrolle des Herstellers &#039;&#039;&#039;wesentlich verändert&#039;&#039;&#039; und es anschließend auf dem Markt bereitstellt oder in Betrieb nimmt&amp;quot;&#039;&#039; (Hervorhebungen hinzugefügt), in Hinblick auf die Regelung haftbarer Wirtschaftsakteure nach Artikel 8 Absatz 1 PHRL neu als entsprechender Produkthersteller gelten.&amp;lt;ref&amp;gt;Vgl zu &#039;&#039;wesentlichen Änderungen&#039;&#039; im Zusammenhang mit KI erneut insbesondere Erwägungsgrund 40 PHRL neu.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Sonstiges (Auswahl) ===&lt;br /&gt;
Artikel 9 PHRL neu sieht Offenlegungspflichten für bestimmte Beweismittel vor, was in Erwägungsgrund 42 PHRL neu mitunter wiederum mit (insbesondere &#039;&#039;technischer und wissenschaftlicher&#039;&#039;) &#039;&#039;&#039;Komplexität&#039;&#039;&#039; in Verbindung gebracht wird (vgl dazu schon oben) &amp;lt;mark&amp;gt;sowie in der Literatur wiederum auch mit einer besonderen Bedeutung für KI&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Ebers&#039;&#039;, KIR 2025, 252 (257); vgl zu den Offenlegungspflichten (unter anderem) im Zusammenhang mit KI weiters: &#039;&#039;Weiler/Bell/Wilkens&#039;&#039;, RIW 2025, 1 (4 mwN).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Gemäß Artikel 12 Absatz 1 PHRL neu sollen im Falle zweier bzw mehrerer für denselben Schaden haftbarer Wirtschaftsakteure diese prinzipiell solidarisch haftbar gemacht werden können (vgl im Detail Artikel 12 PHRL neu). Die Haftung von Wirtschaftsakteuren nach der PHRL neu soll gemäß deren Artikel 15 weiters grundsätzlich nicht vertraglich oder durch nationales Recht ausgeschlossen oder beschränkt werden können. Gemäß Artikel 12 Absatz 2 PHRL neu kann unter Umständen aber ein &#039;&#039;&#039;Haftungsrückgriff&#039;&#039;&#039; von Produktherstellern auf bestimmte Softwarekomponentenhersteller vertraglich ausgeschlossen werden.&amp;lt;ref&amp;gt;Vgl im Detail insbesondere Artikel 12 Absatz 2 Buchstabe a PHRL neu.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Synergien ==&lt;br /&gt;
&lt;br /&gt;
=== Vorschläge für AI Act, AILD und PHRL neu ===&lt;br /&gt;
&lt;br /&gt;
* Der Vorschlag für eine AILD und der Vorschlag für eine neue Produkthaftungsrichtlinie zielten prinzipiell auf verschiedene Anwendungsfälle bzw Haftungsarten ab, sollten sich als Paket jedoch dementsprechend ergänzen.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 3; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Zudem waren die entsprechenden Bestrebungen der Kommission im Haftungsbereich als Paket mit dem Vorschlag für den AI Act zu sehen.&amp;lt;ref&amp;gt;Vgl darüber hinaus Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2 und 3.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== AI Act und Vorschlag AILD ===&lt;br /&gt;
&lt;br /&gt;
* Insbesondere durch die Heranziehung gewisser Begrifflichkeiten aus dem AI Act(-Vorschlag), aber auch durch die Heranziehung entsprechender Sorgfaltspflichten für die Voraussetzungen der Kausalitätsvermutung gemäß Vorschlag AILD (siehe im Detail: [[KI-Haftungsregelungen#Kausalitätsvermutung (Artikel 4)|Kausalitätsvermutung (Artikel 4)]]) hätten sich bei der AILD gegebenenfalls auch einschlägige Synergien mit dem AI Act ergeben.&lt;br /&gt;
* Umgekehrt können aus der Interpretation gewisser Anforderungen nach dem AI Act(-Vorschlag) durch den Vorschlag für die AILD auch gewisse &#039;&#039;&#039;Ansatzpunkte für die Auslegung des AI Acts&#039;&#039;&#039; gewonnen werden: Denn nach dem Vorschlag AILD sollten, um die Kausalitätsvermutung gemäß deren Artikel 4 auszulösen (wie schon oben im Detail dargestellt), prinzipiell nur Verstöße gegen solche Sorgfaltspflichten einschlägig sein, „&#039;&#039;&#039;&#039;&#039;deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern&#039;&#039;&#039;&#039;&#039;“.&amp;lt;ref&amp;gt;Vgl Erwägungsgrund 22 und Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD; Hervorhebungen hinzugefügt.&amp;lt;/ref&amp;gt; Weiters sollten dabei hinsichtlich Hochrisiko-KI-Systemen, für die gewisse Anforderungen nach dem AI Act(-Vorschlag) gelten, jedenfalls in Hinblick auf deren Anbieter bzw Personen, die Anbieter-Pflichten gemäß AI Act(-Vorschlag) unterliegen, wiederum nur bestimmte, abschließend (vgl: “&#039;&#039;nur&#039;&#039;”) aufgezählte Pflichten nach dem AI Act-Vorschlag einschlägig sein.&amp;lt;ref&amp;gt;Vgl Erwägungsgrund 26 und Artikel 4 Absatz 2 Vorschlag AILD; vgl hinsichtlich Hochrisiko-KI-Nutzern bereits oben unter [[KI-Haftungsregelungen#Kausalitätsvermutung (Artikel 4)|Kausalitätsvermutung (Artikel 4)]].&amp;lt;/ref&amp;gt; Erwägungsgrund 22 Vorschlag AILD nannte zudem explizit regulatorische Erfordernisse, die nicht auf einen Schutz vor entsprechenden Schäden abzielen sollen (was sich wohl insbesondere auch auf den AI-Act-Vorschlag beziehen sollte&amp;lt;ref&amp;gt;Denn unmittelbar davor wurde etwa die Nichteinhaltung einer Gebrauchsanweisung (vgl diesbezüglich insbesondere Art 13 und 29 Abs 1 des AI-Act-Vorschlags; nunmehr prinzipiell Art 13 und 26 Abs 1 AI Act) als potenziell einschlägig angesehen: „&#039;&#039;Somit kann diese Vermutung beispielsweise bei einem Schadensersatzanspruch aufgrund von Personenschäden gelten, wenn das Gericht feststellt, das ein Verschulden des Beklagten vorliegt, da dieser eine Gebrauchsanweisung, die eine Schädigung natürlicher Personen verhindern soll, nicht eingehalten hat.&#039;&#039;“ Dies spiegelte sich schließlich auch in Art 4 Abs 3 lit a AILD-Vorschlag wider.&amp;lt;/ref&amp;gt;), indem dieser festhielt: „&#039;&#039;Verstöße gegen Sorgfaltspflichten, deren unmittelbarer Zweck nicht darin besteht, den eingetretenen Schaden zu verhindern, führen nicht zur Geltung der Vermutung; wenn beispielsweise ein Anbieter die erforderlichen Unterlagen nicht bei den zuständigen Behörden einreicht, würde dies bei Schadensersatzansprüchen aufgrund von Personenschäden nicht zur Geltung der Vermutung führen&#039;&#039;“&amp;lt;ref&amp;gt;Vgl dazu etwa die Pflichten zur Übermittlung von Unterlagen bereits in Artikel 23 AI-Act-Vorschlag (nunmehr prinzipiell Art 21 AI Act); vgl in dem Zusammenhang allerdings auch Erwägungsgrund 25 Vorschlag AILD, der in Bezug auf einen Verstoß gegen Pflichten zur Dokumenteneinreichung oder Registrierung bei Behörden festhielt, dass diesfalls „&#039;&#039;nach vernünftigem Ermessen nicht davon ausgegangen werden, dass er das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat&#039;&#039;“, was zusätzlich auf die Voraussetzung nach Artikel 4 Absatz 1 Buchstabe b Vorschlag AILD abzgezielt haben dürfte.&amp;lt;/ref&amp;gt;. Demnach scheint die EU-Kommission im Vorschlag AILD zumindest teilweise nur manche AI Act-(Vorschlag)-Pflichten als &#039;&#039;&#039;&#039;&#039;Sorgfaltspflicht,&#039;&#039;&#039; &#039;&#039;&#039;deren unmittelbarer Zweck die Verhinderung des eingetretenen Schadens&#039;&#039;&#039; &#039;&#039;&#039;ist&#039;&#039;&#039;,&#039;&#039; interpretiert zu haben. Das könnte wiederum Auswirkungen auf die Auslegung von AI Act-Regelungen als schadenersatzbegründende &#039;&#039;&#039;Schutzgesetze&#039;&#039;&#039; im Sinne des § 1311 ABGB&amp;lt;ref&amp;gt;Vgl hierzu grundlegend &#039;&#039;Karner&#039;&#039; in &#039;&#039;Bydlinski/​Perner/​Spitzer&#039;&#039;, KBB. ABGB. Kommentar zum ABGB&amp;lt;sup&amp;gt;7&amp;lt;/sup&amp;gt; (2023) § 1294 ABGB Rz 1, 4,  § 1295 ABGB Rz 9, § 1311 ABGB Rz 3, 5.&amp;lt;/ref&amp;gt; (und damit den Schadenersatz bei Verletzung des AI Acts) haben, wobei Schutzgesetzverletzungen im Zusammenhang mit KI besondere Relevanz zukommt.&amp;lt;ref&amp;gt;Vgl dazu, insbesondere zur Schutzgesetznatur von AI Act-Regelungen und zur Bedeutung der Haftung aufgrund von Schutzgesetzverletzungen im Zusammenhang mit KI, grundlegend &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Verordnung über Künstliche Intelligenz. Kommentar (2024) Art 1 Rz 78 und folgende.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== AI Act und PHRL neu ===&lt;br /&gt;
&lt;br /&gt;
* Im Rahmen der neuen Produkthaftungsrichtlinie wurde explizit auf den AI Act Bezug genommen, indem in Erwägungsgrund 13 PHRL neu festgehalten wurde, dass &amp;quot;&#039;&#039;Entwickler oder Hersteller von Software, einschließlich der Anbieter von KI-Systemen im Sinne&#039;&#039; [...]&amp;quot; des AI Acts als &#039;&#039;Hersteller&#039;&#039; (im Sinne der PHRL neu) erachtet werden sollten. Darüber hinaus ist davon auszugehen, dass auch die Bezugnahmen auf &#039;&#039;KI-Systeme&#039;&#039; in den Erwägungsgründen der PHRL neu vermutlich im Sinne des AI Acts zu verstehen sind (siehe auch unter &#039;&#039;&#039;[[KI-Haftungsregelungen#Neuer Produktbegriff und grundlegender Regelungsgegenstand|Neuer Produktbegriff und grundlegender Regelungsgegenstand]]&#039;&#039;&#039;).&lt;br /&gt;
* Zudem handelt es sich bei den Regelungen des AI Acts wohl mitunter um Produktsicherheitsanforderungen im Sinne des Artikel 7 Absatz 2 Buchstabe f bzw Artikel 10 Absatz 2 Buchstabe b PHRL neu, die wiederum für die Beurteilung der Fehlerhaftigkeit eines KI-Systems im Rahmen der PHRL neu relevant wären. &amp;lt;mark&amp;gt;Im Zusammenhang mit Cybersicherheitsanforderungen gemäß Artikel 7 Absatz 2 Buchstabe f PHRL neu wird zudem unter anderem auf Artikel 15 AI Act (für Hochrisiko-KI) verwiesen.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl insgesamt &#039;&#039;Ebers&#039;&#039;, KIR 2025, 252 (255 f mwN).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
Im Folgenden sollen anhand einiger vereinfachter Beispiele die Anwendbarkeit und Implikationen der hier relevanten Rechtsakte besprochen werden. Hierbei werden allerdings lediglich die als am naheliegendsten erscheinende Einordnung und Subsumption möglichst vereinfacht und verkürzt in den jeweils als am wesentlichsten erscheinenden Thesen dargestellt. Demnach könnten im Detail unter Umständen auch andere bzw weitere Ergebnisse erzielt und dargestellt werden. Die folgenden Einordnungen und Subsumption sollen demnach lediglich eine Orientierungshilfe bieten. &amp;lt;mark&amp;gt;Insbesondere könnte grundsätzlich bei allen Beispielen im Zusammenhang mit KI überlegt werden, inwiefern eine Haftung für Informationen eintreten kann (siehe im Detail &#039;&#039;&#039;[[KI-Haftungsregelungen#Neuer Produktbegriff und grundlegender Regelungsgegenstand|Neuer Produktbegriff und grundlegender Regelungsgegenstand]]&#039;&#039;&#039; mwN), der Übersichtlichkeit halber wird dies allerdings nur im augenscheinlichsten Fall, Beispiel 4 behandelt, da hier vorerst eben nur Informationen bereitgestellt werden.&amp;lt;/mark&amp;gt; Zudem ist erneut hervorzuheben, dass Stand Februar 2025 der Vorschlag AILD noch nicht beschlossen (bzw scheinbar verworfen) wurde und die PHRL neu noch in nationales Recht umzusetzen ist, wobei eine endgültige Beurteilung erst dann (bzw letztgültig erst ab gesicherter Judikatur) erfolgen könnte. In Hinblick auf das Zusammenspiel des Vorschlags AILD und dem AI Act(-Vorschlag) ist erneut hervorzuheben, dass sich der Vorschlag AILD auf den damals vorliegenden AI Act-Vorschlag bezogen hat, wobei allerdings einige Aspekte im Laufe des Gesetzgebungsverfahrens des AI Acts verändert wurden (siehe schon [[KI-Haftungsregelungen#Allgemeines und Anwendungsbereich|Allgemeines und Anwendungsbereich]]). &lt;br /&gt;
&lt;br /&gt;
==== Beispiel 1: KI-gestütztes Kreditscoring ====&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Das Ergebnis eines KI-Systems, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin. &lt;br /&gt;
Durch die Trainingsdaten, die dem System zugrunde lagen, wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären. &lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein &#039;&#039;&#039;Hochrisiko-KI-System&#039;&#039;&#039; gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Ziffer 5 Buchstabe b AI Act vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung Vorschlag AI Liability Directive&lt;br /&gt;
|In Hinblick auf die diskriminierende Trainingsdatenbasis würde gegebenenfalls insbesondere in Hinblick auf den Anbieter des Systems die &#039;&#039;&#039;Kausalitätsvermutung&#039;&#039;&#039; gemäß Artikel 4 Vorschlag AILD relevant erscheinen. Durch eine entsprechende Verletzung von (nunmehr) Artikel 10 AI Act (siehe im Detail [[Artificial Intelligence Act (AIA)#Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act)|Anforderungen an Hochrisiko-KI-Systeme]]) könnte Artikel 4 Absatz 2 Buchstabe a Vorschlag AILD erfüllt werden, wodurch eine der für Hochrisiko-KI-Anbieter taxativ aufgezählten, für die Vermutung einschlägigen Anforderungen betroffen wäre. Demnach erscheint in dem Zusammenhang insbesondere ein entsprechender Schadenersatzanspruch gegen den KI-Anbieter relevant, bei dem die Kausalitätsvermutung prinzipiell unter der Voraussetzung anwendbar wäre, dass der Kläger ein entsprechendes Verschulden des Anbieters&amp;lt;ref&amp;gt;&amp;quot;&#039;&#039;oder einer Person, für deren Verhalten der Beklagte verantwortlich ist&#039;&#039;&amp;quot; (Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD).&amp;lt;/ref&amp;gt; sowie, dass das Ergebnis des KI-Kredit-Scorings zu seinem Schaden geführt hat, nachweist, sofern weiters auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden kann, dass das Verschulden das Ergebnis des KI-Kredit-Scorings beeinflusst hat. Nach dem Sachverhalt erscheint zumindest eine Beeinflussung des Scoring-Ergebnisses durch die diskriminierenden Trainingsdaten naheliegend. &lt;br /&gt;
Die Vermutung sollte schließlich gemäß Artikel 4 Absatz 7 Vorschlag AILD widerlegt werden können. Aufgrund der Einordnung als Hochrisiko-KI-System gemäß AI Act wäre prinzipiell auch die &#039;&#039;&#039;Offenlegungspflicht&#039;&#039;&#039; gemäß Artikel 3 Vorschlag AILD einschlägig. Bei entsprechender gerichtlicher Anordnung (siehe zu den Voraussetzungen im Detail unter [[KI-Haftungsregelungen#Offenlegungspflicht (Artikel 3)|Offenlegungspflicht (Artikel 3)]]) müssten demnach einschlägige Beweismittel zu dem Kredit-Scoring-System, die dem Anbieter oder dem Nutzer (/Betreiber) vorliegen, offengelegt werden. Dies würde wohl insbesondere in Bezug auf die Dokumentation, Information und Protokollierung gemäß AI Act, vor allem in Hinblick auf die Trainingsdatenbasis relevant sein (vgl insbesondere Erwägungsgründe 16, 18 und 19 Vorschlag AILD; [[Artificial Intelligence Act (AIA)#Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act)|Anforderungen an Hochrisiko-KI-Systeme]]).    &lt;br /&gt;
&lt;br /&gt;
Würden die Beweismittel trotz entsprechender gerichtlicher Anordnung nicht offengelegt, sollte ein Sorgfaltspflichtverstoß gemäß Artikel 3 Absatz 5 Vorschlag AILD auch widerlegbar vermutet werden können, was wiederum insbesondere Beweismittel betreffen sollte, die Umstände rund um die Verletzung jener AI Act-Anforderungen durch den KI-Anbieter oder -Nutzer beweisen sollen, die für die Kausalitätsvermutung nach dem Vorschlag AILD relevant sein sollten (vgl Artikel 4 Absätze 2 und 3 Vorschlag AILD). Dies wäre im gegenständlichen Fall wie dargestellt vor allem in Bezug auf den KI-Anbieter (und dessen Pflichten nunmehr gemäß Artikel 10 AI Act) von Relevanz. Diese Vermutung könnte gemäß Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD wiederum auch für die Voraussetzungen der Kausalitätsvermutung bedeutsam sein.  &lt;br /&gt;
|-&lt;br /&gt;
!Einordnung neue Produkthaftungs-RL&lt;br /&gt;
|Die PHRL neu ist bei reinen (nicht in Artikel 6 adressierten) Vermögensschäden &#039;&#039;&#039;nicht anwendbar&#039;&#039;&#039; (Artikel 6 PHRL neu e contrario; Erwägungsgründe 23 und 24 PHRL neu).&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ====&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistent wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) zu einer fehlerhaften Überweisung, indem der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn &#039;&#039;&#039;grundsätzlich ein KI-System im Sinne des AI Act&#039;&#039;&#039; vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Artikel 5 AI Act, noch ein Hochrisiko-KI-System gemäß Artikel 6 AI Act vorliegen. &lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die &#039;&#039;&#039;Informationspflicht des Anbieters gemäß Artikel 50 Absatz 1 AI Act&#039;&#039;&#039; einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen. Nach dem Sachverhalt ist insbesondere die Rolle des Betreibers naheliegend.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung Vorschlag AI Liability Directive&lt;br /&gt;
|Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die &#039;&#039;&#039;Kausalitätsvermutung&#039;&#039;&#039; nach dem Vorschlag AILD in einschlägigen Schadenersatzverfahren (insbesondere gegen die Bank oder allenfalls den KI-Anbieter) relevant. Hierbei wäre aber in Hinblick auf den fehlerhaften Assistenz-Chatbot wohl vorrangig zu überlegen, inwieweit insbesondere ein Verschulden der Bank (als wohl jedenfalls Nutzer/Betreiber) bzw des KI-Anbieters oder einer Person vorliegt, für deren Verhalten diese jeweils verantwortlich wären. Dieses hätte im &#039;&#039;&#039;Verstoß gegen eine national- oder unionsrechtlich festgelegte Sorgfaltspflicht &#039;&#039;liegen&#039;&#039;, deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern&#039;&#039;&#039;&amp;lt;ref&amp;gt;Im Detail versteht Artikel 2 Ziffer 9 Vorschlag AILD unter &amp;quot;&#039;&#039;Sorgfaltspflicht&#039;&#039;&amp;quot; dabei &amp;quot;&#039;&#039;einen im nationalen Recht oder im Unionsrecht festgelegten Verhaltensmaßstab, der einzuhalten ist, um eine Beeinträchtigung von im nationalen Recht oder im Unionsrecht anerkannten Rechtsgütern, einschließlich Leben, körperlicher Unversehrtheit, Eigentum und Wahrung der Grundrechte, zu vermeiden&#039;&#039;&amp;quot;.&amp;lt;/ref&amp;gt; liegen müssen und in der Folge nachgewiesen werden müssen (Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD). Da kein Hochrisiko-KI-System im Sinne des AI Act vorliegt, wäre dies durch Artikel 4 Vorschlag AILD auch nicht derart (siehe etwa Beispiel 1) beschränkt gewesen.&amp;lt;ref&amp;gt;Insbesondere hält Erwägungsgrund 24 Vorschlag AILD in dem Zusammenhang fest: &amp;quot;&#039;&#039;In Bereichen, die nicht durch das Unionsrecht harmonisiert sind, gelten weiterhin nationale Rechtsvorschriften, und ein Verschulden wird nach dem geltenden nationalen Recht festgestellt&#039;&#039;&amp;quot;.&amp;lt;/ref&amp;gt; Zudem müsste die Kausalität der Übernahme der falschen Überweisungssumme für den geltend gemachten Schaden bewiesen werden (Artikel 4 Absatz 1 Buchstabe c Vorschlag AILD). Ein möglicher Schaden könnte im Beispiel wohl zumindest in den Kosten dafür bestehen, die fehlerhafte Überweisung rückgängig zu machen.&amp;lt;ref&amp;gt;Regelungen zu Begriffen wie &amp;quot;&#039;&#039;Schaden&#039;&#039;&amp;quot; sollten durch die AILD allerdings grundsätzlich unberührt bleiben; dies wäre daher insbesondere national zu beurteilen: vgl Erwägungsgrund 22 Vorschlag AILD; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.&amp;lt;/ref&amp;gt; Außerdem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass das Verschulden den beschriebenen Fehler des Chatbots beeinflusst hat (Artikel 4 Absatz 1 Buchstabe b Vorschlag AILD). Da kein Hochrisiko-KI-System vorliegt, sollte die Vermutung schließlich nur gelten, &amp;quot;&#039;&#039;wenn es nach Auffassung des nationalen Gerichts für den Kläger übermäßig schwierig ist&amp;quot;,&#039;&#039; den etwaig zu vermutenden Kausalzusammenhang zu beweisen (Artikel 4 Absatz 5 Vorschlag AILD)&#039;&#039;.&#039;&#039; Die Vermutung sollte schließlich gemäß Artikel 4 Absatz 7 Vorschlag AILD widerlegt werden können.&lt;br /&gt;
Da kein Hochrisiko-KI-System vorliegt, wäre die &#039;&#039;&#039;Offenlegungspflicht&#039;&#039;&#039; gemäß Artikel 3 Vorschlag AILD &#039;&#039;&#039;nicht anwendbar&#039;&#039;&#039;. Somit könnte auf dieser Basis auch nicht die Vorlage entsprechender Beweismittel geltend gemacht werden, was die beschriebenen Nachweise wohl erschweren würde. &lt;br /&gt;
|-&lt;br /&gt;
!Einordnung neue Produkthaftungs-RL&lt;br /&gt;
|Die PHRL neu ist bei reinen (nicht in Artikel 6 adressierten) Vermögensschäden &#039;&#039;&#039;nicht anwendbar&#039;&#039;&#039; (Artikel 6 PHRL neu e contrario; Erwägungsgründe 23 und 24 PHRL neu).&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ====&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssystemebene bei einer bestimmten Marke privater Computer implementiert ist, wird durch eine Nutzerin eines solchen Computers aufgefordert, bestimmte Dateien (Scans von wichtigen privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das Assistenzsystem einzudringen, sodass dieses die Dateien stattdessen an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&amp;lt;u&amp;gt;Variante:&amp;lt;/u&amp;gt;&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses System interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert. &lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&#039;&#039;&#039;Für die Nutzerin als Betreiberin&#039;&#039;&#039; liegt vermutlich die &#039;&#039;&#039;&amp;quot;Haushaltsausnahme&amp;quot;&#039;&#039;&#039; vor, wodurch der &#039;&#039;&#039;AI Act nicht zur Anwendung&#039;&#039;&#039; kommt (Artikel 2 Absatz 10 AI Act).&lt;br /&gt;
&#039;&#039;&#039;Für den Anbieter&#039;&#039;&#039;: Auch wenn prinzipiell ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich &#039;&#039;&#039;weder&#039;&#039;&#039; eine prinzipiell &#039;&#039;&#039;verbotene Praxis&#039;&#039;&#039; gemäß Artikel 5 AI Act, &#039;&#039;&#039;noch ein Hochrisiko-KI-System&#039;&#039;&#039; gemäß Artikel 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich im Sinne von Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Artikel 6 Absatz 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. &lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die &#039;&#039;&#039;Informationspflicht des Anbieters gemäß Artikel 50 Absatz 1 AI Act&#039;&#039;&#039; einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;&#039;&#039;für die direkte Interaktion mit natürlichen Personen bestimmt&#039;&#039;&amp;quot; ist. &lt;br /&gt;
|-&lt;br /&gt;
!Einordnung Vorschlag AI Liability Directive&lt;br /&gt;
|Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die &#039;&#039;&#039;Kausalitätsvermutung&#039;&#039;&#039; nach dem Vorschlag AILD in einschlägigen Schadenersatzverfahren (wohl insbesondere gegen den KI-Anbieter)&amp;lt;ref&amp;gt;Prinzipiell könnte im Grundfall freilich auch überlegt werden, den Angreifer in Haftung zu nehmen. Allerdings wird dies wohl faktisch schwierig umzusetzen sein.&amp;lt;/ref&amp;gt; relevant. Ähnlich wie in Beispiel 2 wären dabei allerdings der Nachweis eines Verschuldens (insbesondere des Anbieters oder von Personen, für deren Verhalten dieser verantwortlich ist) sowie der Kausalität der Aktionen des Assistenzsystems für den Schaden zu erbringen und wohl fraglich. Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass ein etwaiges Verschulden die beschriebenen Aktionen des Assistenzsystems beeinflusst hat (siehe insgesamt Artikel 4 Absatz 1 Vorschlag AILD). &lt;br /&gt;
Da wiederum prinzipiell kein Hochrisiko-KI-System vorliegt, sollte die Vermutung schließlich nur gelten, &amp;quot;&#039;&#039;wenn es nach Auffassung des nationalen Gerichts für den Kläger übermäßig schwierig ist&amp;quot;,&#039;&#039; den etwaig zu vermutenden Kausalzusammenhang zu beweisen (Artikel 4 Absatz 5 Vorschlag AILD)&#039;&#039;.&#039;&#039; &lt;br /&gt;
Die Vermutung sollte schließlich gemäß Artikel 4 Absatz 7 Vorschlag AILD widerlegt werden können.&lt;br /&gt;
Die für die Kausalitätsvermutung geforderten Nachweise wären wiederum auch deswegen fraglich, weil diesfalls die &#039;&#039;&#039;Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD nicht anwendbar&#039;&#039;&#039; wäre, weil grundsätzlich kein Hochrisiko-KI-System vorliegt.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung neue Produkthaftungs-RL&lt;br /&gt;
|Die PHRL neu ist zwar bei reinen (nicht in Artikel 6 adressierten) Vermögensschäden nicht anwendbar (Artikel 6 PHRL &#039;&#039;e contrario&#039;&#039;; Erwägungsgründe 23 und 24 PHRL neu), allerdings sehr wohl auf Vermögensschäden, die sich aus der &amp;quot;&#039;&#039;Vernichtung oder Beschädigung von Daten&#039;&#039;&amp;quot; ergeben, &amp;quot;&#039;&#039;die nicht für berufliche Zwecke verwendet werden&#039;&#039;&amp;quot; (Artikel 6 Absatz 2 in Verbindung mit Absatz 1 Buchstabe c PHRL neu). Dies würde nach dem Sachverhalt grundsätzlich zutreffen, jedenfalls sofern sich aus der Löschung der Dokumentdateien ein finanzieller Schaden ergibt. Dieser wäre dann prinzipiell ersatzfähig.&lt;br /&gt;
Weiters wären gemäß Artikel 6 Absatz 2 PHRL neu aber auch entsprechende immaterielle Schäden erfasst, soweit diese nach dem nationalen Recht ersatzfähig sind, was sich nach Erwägungsgrund 23 PHRL neu insbesondere auf &#039;&#039;Schmerzen und Leid&#039;&#039; beziehen soll. Diesbezüglich ist demnach insbesondere auch die konkrete nationale Umsetzung abzuwarten.&lt;br /&gt;
&lt;br /&gt;
Bei dem Assistenzsystem handelt es sich um eine Software und damit grundsätzlich um ein &#039;&#039;Produkt&#039;&#039; im Sinne des Artikel 4 Ziffer 1 PHRL neu&amp;lt;ref&amp;gt;Prinzipiell ist in diesem Zusammenhang aber auch auf Software-as-a-Service-Modelle zu verweisen, die demnach anders zu beurteilen sein könnten.&amp;lt;/ref&amp;gt;, gleichzeitig liegt aber auch eine Komponente im Sinne des Artikel 4 Ziffer 4 PHRL neu vor (in das Betriebssystem des Computers integrierter/verbundener nicht-körperlicher Gegenstand).&amp;lt;ref&amp;gt;Vgl grundlegend Erwägungsgrund 13 PHRL neu, sowie zur Produkteigenschaft von in ein anderes Produkt integrierten Komponenten zudem Erwägungsgrund 36 PHRL neu.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
In der Folge wäre insbesondere zu überlegen, inwieweit eine Fehlerhaftigkeit des Assistenzsystems die jeweiligen Schäden verursacht hat. &lt;br /&gt;
&lt;br /&gt;
Bei der Beurteilung der Fehlerhaftigkeit von Produkten sind gemäß Artikel 7 Absatz 2 PHRL neu grundsätzlich alle Umstände einzubeziehen, was insbesondere auch einschlägige Produktsicherheitsanforderungen, einschließlich sicherheitsrelevanter Cybersicherheitsanforderungen, betrifft (Buchstabe f). Daneben sind auch andere Aspekte in Artikel 7 Absatz 2 PHRL neu genannt. Sofern der Kläger den Nachweis erbringen würde, dass das Produkt &#039;&#039;&#039;verbindliche&#039;&#039;&#039; Produktsicherheitsanforderungen des Unions- oder nationalen Rechts verletzt, die vor dem Risiko des erlittenen Schadens schützen sollen, wäre die Fehlerhaftigkeit gemäß Artikel 10 Absatz 2 Buchstabe b sogar zu vermuten. In dem Zusammenhang würden prinzipiell insbesondere Regelungen des AI Act relevant erscheinen. Da die Cybersicherheitsanforderungen gemäß Artikel 15 AI Act nur auf Hochrisiko-KI-Systeme anwendbar sind (siehe [[Artificial Intelligence Act (AIA)#Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act)|Genauigkeit, Robustheit und Cybersicherheit]]), müsste die Fehlerhaftigkeit diesfalls aber anhand anderer Aspekte bzw Überlegungen hinsichtlich der Sicherheit, die eine Person erwarten darf oder die unions- oder nationalrechtlich vorgeschrieben ist, festgestellt werden. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;&#039;&#039;&#039;Bei der&#039;&#039;&#039; &#039;&#039;&#039;Variante&#039;&#039;&#039;&amp;lt;/u&amp;gt; hingegen liegt nach dem Sachverhalt insbesondere der Schluss nahe, dass etwaig gegebene Informationspflichten gemäß Artikel 50 Absatz 1 AI Act nicht eingehalten wurden. Sofern man davon ausgeht, dass es sich dabei um verbindliche Produktsicherheitsanforderungen handelt, die vor dem Risiko entsprechender Schäden schützen sollen, und die Nutzerin eine entsprechende Verletzung nachweist, wäre die Fehlerhaftigkeit des Assistenzsystems als Produkt demnach zu vermuten. &lt;br /&gt;
&lt;br /&gt;
Prinzipiell hätte der Kläger weiters den erlittenen Schaden und den Kausalzusammenhang zwischen diesem und der Fehlerhaftigkeit des Produkts nachzuweisen (Siehe im Detail Artikel 10 PHRL neu). &lt;br /&gt;
&lt;br /&gt;
Gegebenenfalls können insbesondere Hersteller von Produkten für deren Fehlerhaftigkeit haftbar gemacht werden (Artikel 8 Absatz 1 Buchstabe a PHRL neu; vgl auch Erwägungsgrund 36 PHRL neu). Dies kann nach Erwägungsgrund 13 PHRL neu insbesondere auch der Anbieter eines KI-Systems gemäß AI Act sein. Unbeschadet dessen trifft die Haftung insbesondere auch den &amp;quot;&#039;&#039;Hersteller einer fehlerhaften Komponente, wenn diese Komponente unter der Kontrolle des Herstellers in ein Produkt integriert oder damit verbunden wurde und die Fehlerhaftigkeit dieses Produkts verursacht hat&#039;&#039;&amp;quot; (Artikel 8 Absatz 1 Buchstabe b PHRL neu). Nach dem Sachverhalt ist davon auszugehen, dass das Assistenzsystem unter der Kontrolle des Betriebssystem-Herstellers als Komponente in dieses integriert wurde, wobei das Betriebssystem als Software wiederum ein Produkt darstellen dürfte (vgl Erwägungsgrund 13 PHRL neu). Nach dem Sachverhalt ist weiters wohl davon auszugehen, dass das Betriebssystem wiederum unter der Kontrolle des Computer-Herstellers zur Komponente des Computers als wiederum eigenständiges Produkt im Sinne des Artikel 4 Ziffer 4 PHRL neu wurde. Gegebenenfalls könnte demnach jedenfalls der Anbieter des Assistenzsystems als Produkthersteller haftbar gemacht werden. Sofern das Assistenzsystem aber auch die jeweilige Fehlerhaftigkeit des Betriebssystems bzw des Computers verursacht hat, könnten gegebenenfalls auch deren Hersteller haftbar gemacht werden und unbeschadet dessen wiederum der Anbieter des Assistenzsystems als Komponentenhersteller (vgl Artikel 8 und insbesondere Erwägungsgrund 36 PHRL neu). &lt;br /&gt;
&lt;br /&gt;
Je nach den Umständen des Falles kämen aber auch noch andere Wirtschaftsakteure für eine Haftung in Frage (vgl im Detail Artikel 8 PHRL neu). &lt;br /&gt;
&lt;br /&gt;
Zwei oder mehrere für denselben Schaden haftbare Wirtschaftsakteure sollen nach Artikel 12 Absatz 1 PHRL neu prinzipiell solidarisch haftbar gemacht werden können (vgl allerdings insbesondere Absatz 2 zum unter Umständen möglichen Regress-Ausschluss). &lt;br /&gt;
&lt;br /&gt;
Die Tatsache, dass im Grundfall (auch) die Handlungen eines Angreifers zu entsprechenden Schäden geführt hat, darf die Haftung der jeweiligen Wirtschaftsakteure prinzipiell nicht mindern oder ausschließen (vgl Artikel 13 Absatz 1, Erwägungsgrund 55 PHRL neu).&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ====&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs an Patient*innen eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfarbe, weshalb das System Hautkrebs bei Personen mit dunklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt. &lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Artikel 6 Absatz 1 AI Act. &lt;br /&gt;
&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Artikel 10 AI Act verletzt. &lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Artikel 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung Vorschlag AI Liability Directive&lt;br /&gt;
|Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die &#039;&#039;&#039;Kausalitätsvermutung&#039;&#039;&#039; nach dem Vorschlag AILD in einschlägigen Schadenersatzverfahren (wohl insbesondere gegen den KI-Anbieter; unter Umständen auch gegen die Klinik als Nutzer/Betreiber) relevant. &lt;br /&gt;
In Bezug auf den KI-Anbieter wäre aber wohl vor allem zu überlegen, inwieweit in Hinblick auf die fehlerhaften Ergebnisse der KI ein Verschulden des KI-Anbieters oder einer Person vorliegt, für deren Verhalten dieser verantwortlich wäre. Dies müsste prinzipiell in der Folge nachgewiesen werden (vgl Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD; siehe auch noch im Folgenden). Dieses Verschulden müsste bei entsprechenden Anbietern von Hochrisiko-KI wiederum in der Verletzung bestimmter Anforderungen des AI Act(-Vorschlag)s begründet sein. Darunter würde gemäß Artikel 4 Absatz 2 Buchstabe a Vorschlag AILD aber prinzipiell auch das Training mit Daten fallen, die nicht entsprechenden Qualitätskriterien des AI Act(-Vorschlags) (nunmehr Artikel 10 AI Act) entsprechen.&lt;br /&gt;
Weiters müsste auch die Kausalität der fehlerhaften Diagnose bzw Therapieempfehlungen für den geltend gemachten Schaden nachgewiesen werden (vgl Artikel 4 Absatz 1 Buchstabe c Vorschlag AILD). Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass das entsprechende Verschulden den beschriebenen Fehler des KI-Systems beeinflusst hat (vgl 4 Absatz 1 Buchstabe b Vorschlag AILD). Nach dem Sachverhalt erscheint zumindest eine Beeinflussung des fehlerhaften KI-Ergebnisses durch die Trainingsdaten naheliegend. Die Vermutung sollte schließlich gemäß Artikel 4 Absatz 7 Vorschlag AILD widerlegt werden können. &lt;br /&gt;
Im Übrigen hätte das im Sachverhalt beschriebene (potenziell fehlerbehaftete) Verhalten der Ärztin die fehlerhaften Ausgaben des KI-Systems prinzipiell nicht beeinflusst, weil es schließlich erst im Nachhinein (auf Basis ebenjener KI-Ausgaben) erfolgt wäre. Dies wäre wohl wiederum insbesondere bei entsprechenden Schadenersatzforderungen gegen die Klinik als vermutlichen Nutzer (Betreiber) des KI-Systems in Hinblick auf die Kausalitätsvermutung gemäß Vorschlag AILD relevant. Ein etwaiger Verstoß gegen die Pflicht zur Verwendung des (Hochrisiko-)KI-Systems nach seiner Gebrauchsanweisung (als Verstoß gegen dabei einschlägige Sorgfaltspflichten des Nutzers/Betreibers des KI-Systems&amp;lt;ref&amp;gt;Vgl Artikel 4 Absatz 3 Buchstabe a Vorschlag AILD und weiters insbesondere insbesondere Artikeln 13 und 29 Absatz 1 des AI-Act-Vorschlags; nunmehr prinzipiell Artikeln 13 und 26 Absatz 1 AI Act.&amp;lt;/ref&amp;gt;) hätte aber wohl wiederum einen entsprechenden weiteren Ansatz in diesem Zusammenhang bieten können.&lt;br /&gt;
&lt;br /&gt;
Aufgrund der Einordnung als Hochrisiko-KI-System gemäß AI Act wäre prinzipiell auch die &#039;&#039;&#039;Offenlegungspflicht&#039;&#039;&#039; gemäß Artikel 3 Vorschlag AILD einschlägig. Bei entsprechender gerichtlicher Anordnung (siehe zu den Voraussetzungen im Detail unter [[KI-Haftungsregelungen#Offenlegungspflicht (Artikel 3)|Offenlegungspflicht (Artikel 3)]]) müssten demnach einschlägige Beweismittel zu dem Kredit-Scoring-System, die dem Anbieter oder dem Nutzer (/Betreiber) vorliegen, offengelegt werden. Dies würde wohl insbesondere in Bezug auf die Dokumentation, Information und Protokollierung gemäß AI Act, vor allem in Hinblick auf die Trainingsdatenbasis relevant sein (vgl insbesondere Erwägungsgründe 16, 18 und 19 Vorschlag AILD; [[Artificial Intelligence Act (AIA)#Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act)|Anforderungen an Hochrisiko-KI-Systeme]]). &lt;br /&gt;
&lt;br /&gt;
Würden die Beweismittel trotz entsprechender gerichtlicher Anordnung nicht offengelegt, sollte ein Sorgfaltspflichtverstoß gemäß Artikel 3 Absatz 5 Vorschlag AILD auch widerlegbar vermutet werden können, was wiederum insbesondere Beweismittel betreffen sollte, die Umstände rund um die Verletzung jener AI Act-Anforderungen durch den KI-Anbieter oder -Nutzer beweisen sollen, die für die Kausalitätsvermutung nach dem Vorschlag AILD relevant sein sollten (vgl Artikel 4 Absätze 2 und 3 Vorschlag AILD). Dies wäre im gegenständlichen Fall wie dargestellt vor allem in Bezug auf den KI-Anbieter (und dessen Pflichten nunmehr gemäß Artikel 10 AI Act) unter Umständen aber eben auch in Hinblick auf die Klinik als Nutzer von Relevanz. Diese Vermutung könnte gemäß Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD wiederum auch für die Voraussetzungen der Kausalitätsvermutung bedeutsam sein. &lt;br /&gt;
|-&lt;br /&gt;
!Einordnung neue Produkthaftungs-RL&lt;br /&gt;
|Da es sich bei dem KI-System um eine Software und damit ein &#039;&#039;Produkt&#039;&#039; im Sinne des Artikel 4 Ziffer 1 PHRL neu handelt (vgl Erwägungsgrund 13 PHRL neu), wäre die PHRL neu grundsätzlich einschlägig.&lt;br /&gt;
&amp;lt;mark&amp;gt;Mit der entsprechenden Literatur wäre aber zu überlegen, inwieweit die PHRL neu auch Fälle abdeckt, bei denen auf Basis fehlerhafter Informationen als KI-Output erst eine schädigende Handlung gesetzt wird (siehe im Detail unter &#039;&#039;&#039;[[KI-Haftungsregelungen#Neuer Produktbegriff und grundlegender Regelungsgegenstand|neuer Produktbegriff und grundlegender Regelungsgegenstand]]&#039;&#039;&#039; mwN). Da das System hierbei allerdings auf Basis der Eingabedaten die fehlerhaften Ausgaben/Empfehlungen tendenziell selbst erzeugt (und nicht bloß übermittelt), wäre zumindest nach einem dargestellten Ansatz wohl prinzipiell eine Haftung denkbar.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:3&amp;quot; /&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Weiters liegt ein nach dieser prinzipiell ersatzfähiger Schaden in Form der Körperverletzung vor (Artikel 6 Absatz 1 Buchstabe a PHRL neu). &lt;br /&gt;
&lt;br /&gt;
Anschließend wäre zu überlegen, inwieweit das KI-System fehlerhaft war. Bei der Beurteilung der Fehlerhaftigkeit sind gemäß Artikel 7 Absatz 2 PHRL neu grundsätzlich alle Umstände einzubeziehen, was insbesondere auch einschlägige Produktsicherheitsanforderungen, wie wohl auch (gewisse) Regelungen des AI Act, betrifft (Buchstabe f). Sofern durch die Verletzung der Anforderungen an Trainingsdaten gemäß Artikel 10 AI Act gegen &#039;&#039;&#039;verbindliche&#039;&#039;&#039; unionsrechtliche Produktsicherheitsanforderungen verstoßen würde, die wohl durchaus vor dem Risiko des erlittenen Schadens schützen sollen&amp;lt;ref&amp;gt;Vgl insbesondere Erwägungsgrund 67 und Artikel 10 Absatz 2 Buchstabe f AI Act.&amp;lt;/ref&amp;gt;, wäre die Fehlerhaftigkeit des KI-Systems als Produkt gemäß Artikel 10 Absatz 2 Buchstabe b PHRL neu zu vermuten, wenn der Kläger diesen Verstoß nachweist.&amp;lt;ref&amp;gt;Vgl in dem Zusammenhang auch die Ausführungen zur Beweismitteloffenlegung gemäß Vorschlag AILD, die wohl auch in dem Zusammenhang relevant wäre.&amp;lt;/ref&amp;gt; Prinzipiell hätte der Kläger außerdem den erlittenen Schaden und den Kausalzusammenhang zwischen diesem und der Fehlerhaftigkeit des Produkts nachzuweisen (Siehe im Detail Artikel 10 PHRL neu).  &lt;br /&gt;
&lt;br /&gt;
Gegebenenfalls wäre prinzipiell insbesondere der Anbieter des KI-Systems als Hersteller haftbar (vgl Erwägungsgrund 13 PHRL neu). Je nach den Umständen des Falles kämen aber auch andere Wirtschaftsakteure für eine Haftung in Frage (vgl im Detail Artikel 8 PHRL neu).&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Literatur ==&lt;br /&gt;
&lt;br /&gt;
=== Versionen der Produkthaftungsrichtlinie ===&lt;br /&gt;
&lt;br /&gt;
* Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final&lt;br /&gt;
&lt;br /&gt;
* Provisional Agreement Resulting From Interinstitutional Negotiations - Proposal for a directive of the European Parliament and of the Council on Liability for defective products (COM(2022)0495 – C9 0322/2022 – 2022/0302(COD))&lt;br /&gt;
&lt;br /&gt;
* Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024&lt;br /&gt;
&lt;br /&gt;
=== Fachliteratur und Ähnliches ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;BeckOK KI-Recht/Bosman, 3. Ed. 1.8.2025, KI-VO Art. 24 Rn. 16&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;BeckOK KI-Recht/Henke, 3. Ed. 1.8.2025, KI-VO Art. 16 Rn. 62&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;B.A. Koch&#039;&#039;, Zukunftsfähiges österreichisches Haftungsrecht, 22. ÖJT Band II/1&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Borges&#039;&#039;, Liability for AI Systems Under Current and Future Law - An overview of the key changes envisioned by the proposal of an EU-directive on liability for AI, Computer Law Review International 1/2023&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Claßen&#039;&#039;, Erhöhte Haftungsrisiken für Quasi-Hersteller in der EU, ZfPC 2025, 153&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Dötsch&#039;&#039;, Außervertragliche Haftung für Künstliche Intelligenz am Beispiel von autonomen Systemen (2023)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Ebers&#039;&#039;, Haftung für Künstliche Intelligenz nach der neuen Produkthaftungsrichtlinie, KIR 2025, 252&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &#039;&#039;European Data Protection Supervisor&#039;&#039;, Opion 42/2023 on the Porporsals for two Directives on AI liability rules, 11. 10. 2023&lt;br /&gt;
* &#039;&#039;European Parliamentary Research Service&#039;&#039;, Artificial intelligence liability directive, PE 739.342, February 2023&lt;br /&gt;
* &#039;&#039;European Parliamentary Research Service&#039;&#039;, Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment, PE 762.861, September 2024&lt;br /&gt;
* &#039;&#039;Handig&#039;&#039;, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Hoeren/Pinelli&#039;&#039;, Das neue Produkthaftungsrecht: Zwischen effektivem Verbraucherschutz und unternehmerischer Freiheit, MMR 2025, 767&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Joggerst/Wendt&#039;&#039;, Die Weiterentwicklung der Produkthaftungsrichtlinie, InTeR 2021, 13&lt;br /&gt;
* &#039;&#039;Karner&#039;&#039; in &#039;&#039;Bydlinski/​Perner/​Spitzer&#039;&#039;, KBB. ABGB. Kommentar zum ABGB&amp;lt;sup&amp;gt;7&amp;lt;/sup&amp;gt; (2023) § 1294 ABGB,  § 1295 ABGB, § 1311 ABGB&lt;br /&gt;
* &#039;&#039;Larcher&#039;&#039;, Medizinprodukte-Software: Abgrenzung und Produkthaftung, rdm 2018/100, 130 &lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Lutz&#039;&#039;, Fahrzeugdaten: Datenzugangsansprüche, Sicherheitsrisiken und die neue Produkthaftungsrichtlinie, ZfPC 2025, 154&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schenk&#039;&#039;, Produkthaftung für falsche KI-Antworten nach der neuen Produkthaftungs-RL?, LTZ 2025, 184&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Thöne,&#039;&#039; Die „digitale“ Erweiterung der Produkthaftungsrichtlinie, MMR 2025, 408&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Veith/Walther&#039;&#039;, Das Software-Update im Schadenersatzrecht, ÖJZ 2025/59&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Weiler/Bell/Wilkens&#039;&#039;, Die neue Produkthaftungsrichtlinie - Auswirkungen auf und Implikationen für die Praxis, RIW 2025, 1&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Verordnung über Künstliche Intelligenz. Kommentar (2024) Art 1&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Wendt&#039;&#039;, KI-Strategie der EU ohne KI-Haftungs-RL?, ZfPC 2025, 45&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Judikatur ===&lt;br /&gt;
&lt;br /&gt;
* OGH 3. 8. 2021, 8 ObA 109/20t&lt;br /&gt;
&lt;br /&gt;
=== Newsbeiträge und Ähnliches ===&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;Imco&#039;&#039;, New Product Liability Directive, https://www.europarl.europa.eu/committees/en/new-product-liability-directive/product-details/20230417CDT11482&amp;lt;nowiki/&amp;gt;(abgerufen am 21. 1. 2025)&lt;br /&gt;
* Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive (abgerufen am 26. 11. 2024)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Redaktion beck-aktuell&#039;&#039;, Verlag C.H.BECK, 11. September 2025 von js (dpa), Produkthaftung soll auch für KI und Software-Fehler gelten, https://beck-online.beck.de/Dokument?vpath=bibdata%2Freddok%2Fbecklink%2F2035621.htm&amp;amp;pos=16&amp;amp;hlwords=on (abgerufen am 29. 11. 2025).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schucht&#039;&#039;, Die neue EU-Produkthaftungsrichtlinie 2024/2853, https://www.ibf-solutions.com/fachbeitraege/news-zur-eu-produkthaftungsrichtlinie (abgerufen am 28. 11. 2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Tom Whittaker&#039;&#039;, EU AI Liability Directive: An Update, in: Burges Salmon blog, https://blog.burges-salmon.com/post/102jfdv/eu-ai-liability-directive-an-update&amp;lt;nowiki/&amp;gt;(abgerufen am 26. 11. 2024)&lt;br /&gt;
&lt;br /&gt;
=== Einzelnachweise ===&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4395</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4395"/>
		<updated>2025-12-09T12:47:32Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Kurzübersicht */ AILD Link in der Tabelle&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. Februar 2025 (schrittweise)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen von KI-Systemen &lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung mit der RL über außervertragliche Haftung ([[KI-Haftungsregelungen|AILD, &amp;lt;mark&amp;gt;von der Kommission zurückgezogen&amp;lt;/mark&amp;gt;]])&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modelle (general purpose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB Verarbeitung zur Vermeidung von Verzerrungen, Art 10), regulatory sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (zB Anbieter- und Betreiberpflichten, Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz (eingeschränkt); reine Forschungszwecke &lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) gelten seit 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (zB Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|Gewährleistung von Transparenz und Verantwortlichkeit&lt;br /&gt;
|Pflichten für Betreiber (professionelle Nutzer*innen) und Anbieter&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (zB Chatbots, Deepfakes)&lt;br /&gt;
|Informationspflichten nach der DSGVO&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
&amp;lt;mark&amp;gt;Der AI Act ist die erste EU-weite, sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) und&amp;lt;/mark&amp;gt; folgt dabei primär einem produktsicherheitsrechtlichem Ansatz, dessen vorrangiges Regulierungsziel die Sicherheit von KI-Systemen und Modellen ist. &amp;lt;mark&amp;gt;Damit ist er Teil des sog [https://single-market-economy.ec.europa.eu/single-market/goods/new-legislative-framework_en?prefLang=de &amp;quot;New Legislative Framework&amp;quot;] (NLF), einem unionsrechtlichen Maßnahmenpaket zur Produktregulierung, das auf die Verbesserung der Marktüberwachung abzielt und sich durch einheitliche Kernelemente auszeichnet (zB Konformitätsbewertungsverfahren, Selbstregulierung, Standards und einheitliche Anforderungen). Im Rahmen des Gesetzgebungsprozesses wurde der Rechtsakt - insbesondere auf Bestreben des Europäischen Parlaments - um menschenrechtliche Aspekte und Betroffenenrechte erweitert, weshalb der AI Act mittlerweile deutlich über reines Produktsicherheitsrecht hinausgeht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modelle&#039;&#039;&#039; bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot;.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei handelt es sich um &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;ableitet&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot;&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe Art 3 Z 1 AI Act. Hervorhebungen nicht im Original. &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;abzuleiten&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Hingegen soll sich nach ErwGr 12 der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen [...]&amp;quot;, womit auf eine Abgrenzung von KI von herkömmlichen Softwarelösungen und Programmierungsansätzen abgezielt wird.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zusammenfassend möchte der EU-Gesetzgeber mit dieser Definition einerseits Rechtssicherheit schaffen, allerdings immer noch Raum für technologischen Fortschritt lassen, um den Anwendungsbereich des AI Act nicht von Vornherein vor potenziellen künftigen technologischen Entwicklungen zu verschließen.&amp;lt;/mark&amp;gt; Dennoch wurde die Definition als zu vage und unbestimmt empfunden. So wurden diverse Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Um den Begriff des KI-Systems also zu konkretisieren und Unsicherheiten zu beseitigen, sollte die Kommission gemäß Art 96 Abs 1 lit f AI Act Leitlinien vorlegen, und damit eine einheitliche Anwendung des Regelwerks fördern sowie Rechtsicherheit gewährleisten&amp;lt;/mark&amp;gt;.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle, &amp;lt;mark&amp;gt;einfache Datenverarbeitungssysteme, auf klassische Heuristik gestützte Systeme, einfache Vorhersagesysteme etc.&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Eine Positiv-Liste, welche Systeme jedenfalls unter den KI-Begriff fallen, enthalten die Leitlinien allerdings nicht. Sie orientieren sich vielmehr an den 7 Kernelementen der KI-Definition gemäß Art 3 Z 1 AI Act. Es wird überdies betont, dass nicht alle Elemente kontinuierlich in den beiden Hauptphasen des Lebenszyklus von KI (&amp;quot;building phase&amp;quot; / &amp;quot;pre-deployment&amp;quot; oder &amp;quot;use phase&amp;quot; / &amp;quot;post-deployment&amp;quot;) vorhanden sein müssen und, dass sich die Leitlinien kontinuierlich weiterentwickeln sollen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Folgende Konkretisierungen der KI-Definition und Beispiele sind den Leitlinien zu entnehmen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Elemente der KI-Definition&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Erläuterungen in den Leitlinien der EU-Kommission&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Maschinengestütztes System&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;KI benötigt Hardware- und Softwarekomponenten&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB eine Hardwareinfrastruktur wie processing units, Speicher, Input/Output-Schnittstellen und Software (Code, Programme etc.)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;autonomer Betrieb (in unterschiedlichem Grade)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erfordert einen gewissen Grad an Unabhängigkeit von menschlichem Eingreifen, wobei Systeme, die vollständig manuelle menschliche Interaktion erfordern, nicht darunter fallen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Umfasst sind Systeme, die zwar einen manuellen Input erfordern, aber von selbst einen Output generieren (zB Chatbots)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anpassungsfähigkeit nach Betriebsaufnahme (optional)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Selbstlernfähigkeiten (nicht zwingend erforderlich); darunter versteht man, ob sich das Verhalten des Systems während seiner Verwendung anpassen oder verändern kann (zB automatisches Lernen, wie Muster oder Beziehungen zwischen Daten erkannt werden können).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungsfähigkeit&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Inferenz, Schlüsseleigenschaft; dient der Abgrenzung von KI-Systemen von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen. Nicht umfasst sind hingegen Systeme, die nur von Menschen programmierten Regeln folgen und automatisiert Operationen ausführen. Die Ableitungsfähigkeit bedeutet daher die Erlernung allgemeiner Konzepte statt fester, vorprogrammierter Regeln.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Bsp: maschinelles Lernen, logik- und wissensgestützte Systeme (Schlussfolgerungen mittels Deduktion oder Induktion)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitung aus Eingaben für implizite oder explizite Ziele&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungen müssen nach entweder:&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;expliziten Zielen (klar definierte, direkt in den Code programmierte Ziele, Optimierung von Kostenfunktionen, Wahrscheinlichkeitsberechnung) oder&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;impliziten Zielen (Ableitung des Ziels aus dem Verhalten oder den dahinterstehenden Annahmen des Systems; bspw Trainingsdaten oder Interaktion des Systems mit Umwelt) erfolgen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erzeugung von Ausgaben&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ausgabe-Arten umfassen unter anderem&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Vorhersagen (Schätzungen unbekannter Werte basierend auf komplexen Datenmustern)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Inhalte (Texte, Bilder, Videos oder Musik)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Empfehlungen (Vorschläge für Maßnahmen, Produkte oder Dienstleistungen, die hochgradig personalisiert sind und Massendaten nutzen).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Entscheidungen (Vollautomatisierte Schlussfolgerungen oder Auswahlentscheidungen, die Prozesse automatisieren, die üblicherweise menschlichem Urteilsvermögen vorbehalten sind)&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;zB die generierten Inhalte von Chatbots, Produktvorschläge, Echtzeit-Vorhersagen, Auswahlentscheidungen&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Beeinflussung physischer oder virtueller Umgebungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Frage, ob das System einen aktiven Einfluss auf die Umgebungen hat, in denen es eingesetzt wird, sei es auf materielle physische Objekte oder auf digitale Räume&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB Roboterarm, Software-Ökosysteme, Datenströme&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}  &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI-Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit aus, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). &amp;lt;mark&amp;gt;Man kann hier den Vergleich zu einem KFZ ziehen, wobei das KI-Modell den Motor darstellt, der die eigentliche &amp;quot;Arbeit&amp;quot; leistet. Um jedoch fahrtüchtig zu sein, bedarf es nicht nur eines Motors, sondern das Fahrzeug benötigt darüber hinaus eine Karosserie, Räder, ein Lenkrad etc. Das wiederum bezeichnet das KI-System, welches das Modell erst durch seine Schnittstellen, seine Benutzeroberfläche etc. &amp;quot;fahrtüchtig&amp;quot; und damit nutzbar macht.&amp;lt;/mark&amp;gt; Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen &amp;quot;Nutzer&amp;quot;) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder sich in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollen:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität), unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act trat am &#039;&#039;&#039;1. August 2024&#039;&#039;&#039; in Kraft und wird generell am &#039;&#039;&#039;2. August 2026&#039;&#039;&#039; anwendbar (Art 113 AI Act). Gestaffelt erlangen einige Bestimmungen jedoch bereits vorab oder danach Geltung:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab &#039;&#039;&#039;2. August 2025&#039;&#039;&#039;&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem &#039;&#039;&#039;2. August 2027&#039;&#039;&#039;&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 111 Abs 2 AI Act enthält dabei jedoch eine sog „grandfathering“-Klausel, nach welcher der AI Act für Betreiber von Hochrisiko-KI-Systemen, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, nur dann gilt, wenn diese Systeme danach in ihrer Konzeption erheblich verändert wurden.&amp;lt;ref&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 23, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Verpflichtung zur Maßnahmenergreifung gilt für Betreiber und Anbieter gleichermaßen und ist ferner unabhängig von der Risikoklasse der infragestehenden KI-Anwendung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Unter KI-Kompetenz versteht man grundsätzlich &amp;quot;die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.&amp;quot;&amp;lt;ref&amp;gt;Vgl die Definition in Art 3 Z 56 AI Act.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dies umfasst die notwendigen Kompetenzen, um fundierte Entscheidungen über KI-Systeme zu treffen, technische Elemente zu verstehen sowie korrekt anzuwenden, die Auswirkungen von KI-basierten Entscheidungen auf Betroffene zu verstehen und KI-generierte Ausgaben angemessen zu interpretieren.&amp;lt;ref name=&amp;quot;:1&amp;quot;&amp;gt;Vgl ErwGr 20 AI Act. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dazu gehört auch, den einschlägigen Akteuren der KI-Wertschöpfungskette jene erforderlichen Kenntnisse zu vermitteln, um die Einhaltung und Durchsetzung der Vorschriften des AI Act zu gewährleisten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Weitere Konkretisierungen oder zwingende Mindestvorgaben für die Sicherstellung der KI-Kompetenz enthält der AI Act allerdings nicht und betont sogar, dass die Konzepte der KI-Kompetenz in Bezug auf den jeweiligen Kontext unterschiedlich sein können.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:1&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Die EU-Kommission hat daher ein [https://digital-strategy.ec.europa.eu/de/library/living-repository-foster-learning-and-exchange-ai-literacy &amp;quot;Living Repository&amp;quot;] angelegt, in dem Unternehmen ihre Praktiken in Bezug auf KI-Kompetenz eingetragen haben. Das Repository wird laufend ergänzt, ist jedoch nicht rechtsverbindlich. Weiters bilden die darin enthaltenen Praktiken keine Garantie zur Compliance mit Art 4 AI Act, allerdings stellen sie eine gute Orientierung dar, welche Maßnahmen zur Sicherstellung von KI-Kompetenz in unterschiedlichen Branchen bereits ergriffen werden. Häufig genannte Praktiken umfassen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne eLearning-Plattformen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne Weiterbildungen und Trainingsprogramme,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Kenntnis-basierte Schulungen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Video-/Podcast-Reihen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;spielebasierte Trainings,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Erstellung von KI-Verhaltenskodizes und Risikobewertungssystemen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;eigene Chatbots zum Training im Umgang mit Sprachmodellen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Denkbar ist überdies die Teilnahme an externen Fortbildungen und Schulungen, die Entwicklung von internen Richtlinien (&amp;quot;KI-Guidelines&amp;quot;) oder die Schaffung von sog &amp;quot;KI-Beauftragten&amp;quot; in der Organisation. Ob die Schulungsmaßnahmen fortlaufend zu erfolgen haben, ist rechtlich nicht vorgeschrieben, wird allerdings anzunehmen sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Dieser Ansicht folgend: &#039;&#039;Siglmüller&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 4 KI-Kompetenz Rz 5.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Ebensowenig sind die genauen Inhalte der Kompetenzvermittlungsmaßnahmen definiert. Es kann jedenfalls davon ausgegangen werden, dass diese zielgruppengerecht und zugeschnitten auf unterschiedliche Bedürfnisse erfolgen sollten. Weiters werden sie sich bei manchen Branchen, KI-Einsatzgebieten oder Personengruppen nicht lediglich auf rechtliche oder technische Anforderungen beschränken, sondern ebenso soziale und ethische Komponenten umfassen. Bei der Entwicklung und Nutzung von GPAI-Modellen wird beispielsweise die Vermittlung von Kenntnissen im Zusammenhang mit Urheberrecht, Datenschutz, &amp;quot;Bias&amp;quot; (Verzerrungen) oder &amp;quot;Halluzinationen&amp;quot; (erfundene falsche Ausgaben) sinnvoll sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger,&#039;&#039; Wissenskultur im KI-Zeitalter – eine Auseinandersetzung mit der KI-Kompetenz nach Art 4 AI Act und ihren praktischen Implikationen, ZIIR 2025, 250.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die EU-Kommission hat darüber hinaus eine [https://digital-strategy.ec.europa.eu/de/faqs/ai-literacy-questions-answers &amp;quot;FAQ-Seite&amp;quot;] mit Fragen und Antworten zur KI-Kompetenz angelegt, um einen besseren Überblick über die Anforderungen zu geben.&amp;lt;/mark&amp;gt;    &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten, &amp;lt;mark&amp;gt;da sie besonders schädlich sind, enormes Missbrauchspotenzial aufweisen und im Widerspruch zu europäischen Grundrechten und Grundfreiheiten stehen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 28 AI Act.&amp;lt;/mark&amp;gt; MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt; (Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt; Folgende Praktiken sind davon umfasst: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Praktik&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Nicht erfasste Praktiken&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsgrundlage&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Unterschwellige Beeinflussung außerhalb des Bewusstseins oder manipulative/täuschende Techniken&#039;&#039;&#039;, wodurch die freie Entscheidungsfähigkeit von Personen beeinträchtigt wird und ein Schaden mit hinreichender Wahrscheinlichkeit eintritt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ableitung sensibler Informationen aus Gehirnen von Nutzern über Maschine-Gehirn-Schnittstellen&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 29 AI Act sowie Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 66.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Chatbots, die zur Selbstverletzung verleiten&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 87.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Unterschwellige visuelle oder auditive Reize bzw generelle sensorische Manipulation&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 65 und 68.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erlaubt ist hingegen der Einsatz eines KI-Systems, das personalisierte Empfehlungen auf der Grundlage transparenter Algorithmen und Nutzerpräferenzen verwendet, und sich nicht absichtlich manipulativer Techniken bedient.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 128.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit a&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Ausnutzen der Vulnerabilität/Schutzbedürftigkeit&#039;&#039;&#039; aufgrund des Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine KI-Begleit-App, die durch gewisse Sprachmuster und Verhaltensweisen gezielt emotionale Abhängigkeiten und ungesunde Bindungen bei älteren Menschen erzeugt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-gestütztes Spielzeug, das Kinder zu riskanten Herausforderungen ermutigt oder durch süchtig machende Techniken zu übermäßigem Spielen anregt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte &amp;quot;Grooming-Praktiken&amp;quot; (gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht), um Mädchen mit Behinderung im Internet anzusprechen und zu manipulieren&amp;lt;ref&amp;gt;Vgl Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 88 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Kinder beim Lernen einer Fremdsprache durch den Einsatz unterschwelliger Techniken unterstützen soll, sofern sie transparent arbeitet und die Nutzerautonomie wahrt.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Benommenheit und Ermüdung bei Fahrern erkennen und sie im Einklang mit den Sicherheitsvorschriften mit Warnmeldungen auf Ruhepausen hinweisen, gelten ebenso nicht als Ausnutzung von Vulnerabilitäten.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 130ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit b&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social scoring&#039;&#039;&#039; (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Verwendung eines KI-Systems zur Schätzung der Betrugswahrscheinlichkeit bei Empfängern von Haushaltszulagen durch das Sozialamt, das sich auf Merkmale stützt, die in sozialen Kontexten ohne offensichtlichen Zusammenhang mit oder Relevanz für die Bewertung von Betrug erhoben oder abgeleitet werden, wie zB ein Ehepartner mit einer bestimmten Staatsangehörigkeit oder ethnischen Herkunft, der Besitz eines Internetanschlusses, das Verhalten auf sozialen Plattformen oder die Leistung am Arbeitsplatz etc.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems durch eine öffentliche Stelle, um für die Früherkennung gefährdeter Kinder anhand von Kriterien wie der psychischen Gesundheit und Arbeitslosigkeit der Eltern, aber auch anhand von aus verschiedenen Kontexten abgeleiteten Informationen über das soziale Verhalten der Eltern Familienprofile zu erstellen. Auf der Grundlage der erzielten Bewertung werden Familien für Kontrollen ausgewählt und als „gefährdet“ geltende Kinder werden aus ihren Familien genommen, unter anderem auch in Fällen geringfügiger Übertretungen seitens der Eltern, wie zB gelegentlich verpasste Arzttermine oder verhängte Verkehrsstrafen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine Regierung führt ein umfassendes KI-gestütztes System ein, das die Bürgerinnen und Bürger auf der Grundlage ihres Verhaltens in verschiedenen Lebensbereichen wie sozialen Interaktionen, Online-Aktivitäten, Kaufgewohnheiten und Pünktlichkeit bei der Begleichung von Rechnungen überwacht und einstuft. Menschen mit einer niedrigeren Bewertung müssen damit rechnen, dass sie eingeschränkten Zugang zu öffentlichen Dienstleistungen erhalten, höhere Zinsen auf Kredite zahlen und auf Reisen und bei der Suche nach einer Wohnung oder sogar einem Arbeitsplatz Schwierigkeiten haben.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 166 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Bonitätsprüfung natürlicher Personen auf Basis persönlicher Merkmale wie dem Einkommen vor Vergabe eines Kredits.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basierte Erhebung von Geschwindigkeitsüberschreitungen oder hochriskantem Fahrverhalten, die zur Erhöhung der KFZ-Versicherungsprämien führen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte gezielte kommerzielle Werbung fällt nicht in den Anwendungsbereich, wenn sie auf relevanten Daten (z. B. Nutzerpräferenzen) beruht, im Einklang mit den Rechtsvorschriften der Union über Verbraucherschutz, Datenschutz und digitale Dienste erfolgt und nicht zu einer Schlechterstellung oder Benachteiligung führt, die in keinem angemessenen Verhältnis zur Tragweite des sozialen Verhaltens des Nutzers steht (z. B. ausbeuterische und unfaire differenzierte Preisgestaltung).&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 177.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit c&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Bewertung des Risikos, dass eine Person eine Straftat&#039;&#039;&#039; begeht (ausschließlich aufgrund von Profiling)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Eine Polizeidienststelle verwendet KI-gestützte Risikobewertungsinstrumente, um das Risiko zu bewerten, dass kleine Kinder und Jugendliche an „künftigen Gewalttaten und Eigentumsdelikten“ beteiligt sein werden. Das System bewertet Kinder auf der Grundlage ihrer Beziehungen zu anderen Menschen und deren vermeintlichen Risikoniveaus, dh es wird eventuell davon ausgegangen, dass bei Kindern ein höheres Risiko für die Begehung von Straftaten besteht, einfach weil sie mit einer anderen Person wie einem Geschwisterkind oder einem Freund verbunden sind, bei der eine hohe Risikobewertung vorliegt. Das Risikoniveau der Eltern kann sich ebenfalls auf das Risikoniveau eines Kindes auswirken.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 202.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Standortbezogene oder geodatenbasierte Vorhersagen oder ortsbezogene Verbrechensvorhersagen (zB KI-System zur Berechnung der Kriminalitätswahrscheinlichkeit in bestimmten Stadtgebieten oder von Schmuggelrouten)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Unterstützung der durch Menschen durchgeführten Bewertung, die sich auf objektive und überprüfbare Tatsachen stützt, die in Zusammenhang mit einer kriminellen Aktivität stehen (zB Profiling zur Vorhersage gefährlichen Verhaltens in einer Menschenmenge, KI-basiertes Profiling von Personen, gegen die bereits ein Verdacht besteht, der auf mehreren überprüfbaren, objektiven Tatsachen beruht).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basiertes Profiling in Bezug auf juristische Personen&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur individuellen Vorhersage von Ordnungswidrigkeiten (zB Bagatellverkehrsdelikte)&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 212 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit d&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erstellung/Erweiterung von &#039;&#039;&#039;Datenbanken&#039;&#039;&#039; zur Gesichtserkennung durch &#039;&#039;&#039;ungezieltes Auslesen von Gesichtsbildern&#039;&#039;&#039;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen für Gesichtserkennungssoftware sammelt Bilder von Gesichtern, die mit einem „automatisierten Bildausleser“, der das Internet durchsucht und Bilder mit menschlichen Gesichtern erkennt, aus sozialen Medien (zB Facebook, X) ausgelesen wurden. Der Bildausleser sammelt diese Bilder mit allen damit verbundenen Informationen (wie der Quelle des Bildes (URL), der Geolokalisierung und manchmal den Namen der einzelnen Personen). Die Gesichtsmerkmale werden dann aus den Bildern extrahiert und in mathematische Darstellungen umgewandelt, die für die Indexierung und den künftigen Vergleich mit Hashtags versehen werden. Wenn ein Nutzer das Bild einer Person in das KI-System hochlädt, wird dieses System bestimmen, ob dieses Bild mit einem Gesicht in der Datenbank übereinstimmt.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 232.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Das ungezielte Auslesen anderer biometrischer Daten als Gesichtsbilder (zB Stimmaufnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Gesichtsbilddatenbanken, die nicht für die Erkennung von Personen verwendet werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Gesichtsbilder aus dem Internet sammeln, um KI-Modelle zur Erzeugung neuer Bilder fiktiver Personen zu entwickeln&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit e&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Emotionserkennungssysteme&#039;&#039;&#039; am Arbeitsplatz oder in Bildungseinrichtungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das beispielsweise aus Gesten, Stirnrunzeln oder fehlendem Lächeln ableitet, dass ein Mitarbeiter unglücklich, traurig oder gegenüber den Kunden wütend ist&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Systeme, die aus Stimmführung oder Körpersprache ableiten, dass ein Schüler zornig und im Begriff ist, gewalttätig zu werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Emotionen aus Tastenanschlägen (Art des Tippens), Gesichtsausdrücken, Körperhaltungen oder Bewegungen ableitet, beruht auf biometrischen Daten und fällt in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die den emotionalen Ton in hybriden Arbeitsteams überwachen, indem sie Emotionen aus Stimm- und Bildaufnahmen hybrider Videokonferenzen erkennen und ableiten, was in Regel der Förderung des sozialen Bewusstseins, des Managements emotionaler Dynamik und der Konfliktverhütung dienen würde&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems bei Online-Prüfungen zur Erkennung von Emotionen wie Erregungs- und Angstzustände&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung zur Bewertung des Wohlbefindens, des Motivationsniveaus und der Arbeits- oder Lernzufriedenheit von Studierenden oder Arbeitnehmern.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der Einsatz von KI-Erkennungssystemen, um auf die Ermüdung eines Berufspiloten oder -fahrers zu schließen, ihn zu warnen und ihm zu empfehlen, zur Vermeidung von Unfällen Pausen einzulegen, da Emotionserkennung keine physischen Zustände wie Schmerzen oder Ermüdung einschließt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das aus schriftlichen Texten (Analysen von Inhalt und Stimmung) Emotionen ableitet, um den Stil oder den Ton eines bestimmten Artikels zu bestimmen, beruht nicht auf biometrischen Daten und fällt daher nicht in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Werden Emotionserkennungssysteme nur zu persönlichen Schulungszwecken eingesetzt, sind sie zulässig, sofern die Ergebnisse nicht Personen mit Personalverantwortung zur Verfügung gestellt werden und keine Auswirkungen auf das Arbeitsverhältnis haben&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die durch eine Bildungseinrichtung erfolgende Verwendung einer KI-gestützten Software zur Verfolgung der Augenbewegungen bei Online-Prüfungen Studierender, um den Fixierungspunkt und die Bewegung der Augen zu verfolgen (um beispielsweise zu erkennen, ob unerlaubtes Material verwendet wird), ist nicht verboten, da das System Emotionen weder erkennt noch ableitet&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung aus medizinischen Gründen zur Unterstützung von Arbeitnehmern oder Studierenden mit Autismus und zur Verbesserung der Barrierefreiheit für blinde oder gehörlose Menschen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit f&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Kategorisierung,&#039;&#039;&#039; Ableitung von sensiblen Daten (religiöse Weltanschauung, politische Einstellung)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Personen, die auf einer Plattform sozialer Medien aktiv sind, nach ihrer angenommenen politischen Ausrichtung kategorisiert, indem es die biometrischen Daten der von ihnen auf die Plattform hochgeladenen Fotos analysiert, um ihnen gezielte politische Nachrichten zu übermitteln&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;ein System zur biometrischen Kategorisierung, das für sich in Anspruch nimmt, die religiöse Ausrichtung einer Person aus ihren Tätowierungen oder ihrem Gesicht ableiten zu können.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 280 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die mit der Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze, auch zu Strafverfolgungszwecken, befasst sind (zB bei Verdacht auf Darstellungen sexuellen Kindesmissbrauchs)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;die Kategorisierung von Patienten, bei der Bilder nach ihrer Haut- oder Augenfarbe verwendet werden, für medizinische Diagnosen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 284 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit g&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Echtzeit-Fernidentifizierungssysteme&#039;&#039;&#039; in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die polizeiliche Verwendung von Systemen zur biometrischen Echtzeit-Fernidentifizierung zu dem Zweck, Ladendiebe zu identifizieren und ihre Gesichtsbilder mit Kriminaldatenbanken zu vergleichen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 328.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung von Echtzeit-Gesichtserkennungstechniken durch die Polizei nach einem schweren Terroranschlag auf einen Weihnachtsmarkt mit zwölf Toten, um den Täter zu identifizieren und festzustellen, wohin er flieht. In diesem Zusammenhang nutzen sie auch die Echtzeit-Gesichtserkennungstechnik des nahe gelegenen Bahnhofs und der Zielbahnhöfe der Züge, die kurz nach dem Angriff von dort abgehen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 354.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit h&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&amp;lt;br /&amp;gt;&lt;br /&gt;
Einige dieser Praktiken sind darüber hinaus bereits nach anderen Rechtsvorschriften verboten, so beispielsweise gewisse manipulative und täuschende Techniken als &amp;quot;dark patterns&amp;quot; nach dem [[Digital Services Act (DSA)|Digital Services Act]] (gilt nur für bestimmte Plattform-Anbieter) oder die Verarbeitung biometrischer Daten zur Identifizierung einer Person nach Art 9 Abs 1 DSGVO, sofern keine der in Abs 2 genannten Ausnahmen vorliegt. Gemäß der neuen Plattformarbeitsrichtlinie&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Richtlinie (EU) 2024/2831 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit, ABl L 11. 11. 2024.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;, die bis Dezember 2026 in nationales Recht umzusetzen ist, ist überdies der Einsatz von automatisierten Überwachungs- und Entscheidungssystemen zur Erfassung personenbezogener Daten über den emotionalen oder psychischen Zustand einer Person (Emotionserkennung) verboten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;MwN &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2024) Art 5 Rz 104.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act klassifiziert Hochrisiko-KI-Systeme in Art 6. Dabei kennt er zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige&amp;quot; Hochrisiko-KI-Systeme bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei folgenden Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder stellt selbst ein solches Produkt dar&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten: bspw biometrische Identifizierung, kritische Infrastrukturen, grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle, Justiz und demokratische Prozesse.  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis einer Entscheidungsfindung, an der das System beteiligt ist, wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot; &amp;lt;mark&amp;gt;Als Profiling gilt dabei iSd Art 4 Abs 4 DSGVO jede automatisierte Verarbeitung personenbezogener Daten, die darin besteht, bestimmte persönliche Aspekte einer Person zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, Gesundheit, persönliche Vorlieben, Zuverlässigkeit, Verhalten etc. zu analysieren oder vorherzusagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Europäische Kommission hat im Rahmen von Public Consultations unter anderem auch Rückmeldungen zu Anforderungen an Hochrisiko-KI-Systeme eingeholt, die eine Grundlage für Leitlinien bilden sollen, welche im Februar 2026 veröffentlicht werden sollen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;European Commission, Commission launches public consultation on high-risk AI systems, https://digital-strategy.ec.europa.eu/en/news/commission-launches-public-consultation-high-risk-ai-systems (Stand 6.6.2025).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Pflichten für Betreiber von Hochrisiko-KI-Systemen&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Betreiberpflichten nach Art 26 AI Act&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis &amp;lt;mark&amp;gt;([https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#KI-Kompetenz/AI_literacy_(Art_4_AI_Act) &amp;quot;KI-Kompetenz&amp;quot;] nach Art 4&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 40. &amp;lt;/ref&amp;gt;)&amp;lt;/mark&amp;gt; verfügen und ihnen die erforderliche Unterstützung zukommen lassen. &lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von automatisiert erzeugten &#039;&#039;&#039;Protokollen&#039;&#039;&#039; &amp;lt;mark&amp;gt;für einen Zeitraum von zumindest 6 Monaten (wobei hier entgegenstehende datenschutzrechtliche Regelungen vorgehen würden&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 42.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;)&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, vor Verwendung oder Inbetriebnahme des Hochrisiko-KI-Systems am Arbeitsplatz. &amp;lt;mark&amp;gt;Dies umfasst sowohl den Einsatz von &amp;quot;eingebetteten&amp;quot; als auch &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Weiters sind die Mitwirkungspflichten des Betriebsrats zu berücksichtigen (vgl §§ 96 f ArbVG). Nicht umfasst sind wahrscheinlich Informationspflichten gegenüber Bewerbern, da diese tendenziell nicht unter den von dieser Bestimmung geforderten &amp;quot;Arbeitnehmer-Begriff&amp;quot; fallen&amp;lt;/mark&amp;gt;.&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet. &amp;lt;mark&amp;gt;Diese Bestimmung gilt lediglich für den Einsatz von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen nach Art 6 Abs 2 iVm Anhang III.Die danach mitzuteilende Information sollte die Zweckbestimmung und die Art der getroffenen Entscheidung beinhalten (vgl ErwGr 93) sowie - nach einer hier vertretenen Auffassung - eine vorab Information über das Recht auf Erklärung nach Art 86 AI Act, welches von KI-Entscheidungen Betroffenen das Recht zugesteht, unter gewissen Voraussetzungen vom Betreiber eine klare und aussagekräftige Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess sowie zu den wichtigsten Elementen der getroffenen Entscheidung zu erhalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe die entsprechende Argumentationslinie im Detail: &#039;&#039;Research Institute&#039;&#039;, Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025) 100 ff, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.  &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 27 Abs 4 macht überdies die Verzahnung der Grundrechte-Folgenabschätzung (GRFA) mit anderen Folgenabschätzungen deutlich und schreibt bspw vor, dass bei Vorliegen einer Datenschutz-Folgenabschätzung nach Art 35 DSGVO die GRFA diese ergänzen bzw in diese integriert werden solle.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Piltz/Zwerschke&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 27 Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme Rz 32.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Sowohl die Verpflichtungen nach Art 26 als auch die Durchführung einer GRFA nach Art 27 treffen den Betreiber unabhängig davon, ob jemand (bspw Betroffene) deren Einhaltung einfordern. Im Unterschied dazu enthält der AI Act in den Artt 85 ff sog &amp;quot;Betroffenenrechte&amp;quot;, die aktiv von betroffenen Personen geltend zu machen sind. Dazu zählt insbesondere das [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Recht auf Erklärung nach Art 86], welches das einzige Betroffenenrecht darstellt, das direkt gegen den Betreiber durchsetzbar ist.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführer oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn die genannten Personen ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen;&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt;&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das &#039;&#039;nicht&#039;&#039; als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird.&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter (Erstanbieter) nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat jedoch mit dem neuen Anbieter zusammenzuarbeiten, insb Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI Act muss beachtet werden, dass die Rollenverteilung eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters erfolgt, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden &amp;lt;mark&amp;gt;sowie den Anforderungen an die Barrierefreiheit genügen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots, &amp;lt;mark&amp;gt;Sprachassistenten, Social Bots)&amp;lt;/mark&amp;gt;, sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Pflicht kann entfallen, wenn die Interaktion mit dem KI-System aus Sicht einer angemessen informierten, aufmerksamen und verständigen Person offensichtlich ist oder beim Einsatz von KI-Systemen, die für die Strafverfolgung zugelassen sind.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 43.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
*&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 40.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Chatbots&#039;&#039;&#039; können durch einen textlichen Hinweis zu Beginn des Gesprächs oder ein dauerhaft angezeigtes grafisches Symbol vorgestellt werden.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Bei &#039;&#039;&#039;Voicebots&#039;&#039;&#039; kommt eine der Interaktion vorausgehende Ansage, welche auf den KI-Einsatz hinweist, in Betracht.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social Bots&#039;&#039;&#039; können eine Information vor und mit jeder Interaktion des Bots in sozialen Netzwerken erfordern, da das System stets mit einem neuen Personenkreis in Interaktion tritt (zB AI-Influencer).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Das KI-Büro hat am 5. November 2025 Arbeiten an einem Verhaltenskodex in Bezug auf die Kennzeichnung von KI-generierten Inhalten aufgenommen. Die entsprechenden Leitlinien werden in einem siebenmonatigen Prozess, der sich insbesondere durch die Einbindung von relevanten Stakeholdern und öffentliche Konsultationen auszeichnen soll, erarbeitet werden. Näheres unter: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Mögliche Methoden wären bspw Wasserzeichen, Metadatenidentifizierungen, Kryptografische Methoden (zB &amp;quot;Hashing&amp;quot;), Protokollierungsmethoden oder Fingerabdrücke.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 133 Satz 4 sowie mwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 84 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Denkbar ist bspw eine Umsetzung in Form eines sichtbaren Wasserzeichens, eines textlichen Hinweises, durch Hinzufügen von sog C2PA-Content Credentials&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Die C2PA („Coalition forContent Provenanceand Authenticity“) ist ein branchenübergreifendes Non-profit-Projekt, das die Entwicklung gemeinsamer technischer Standards zur Ermittlung der Herkunft von digitalen Inhalten zum Ziel hat. Siehe dazu https://c2pa.org/. So hat sich bspw LinkedIn bei der Erkennung KI-generierter Inhalte diesen Standards unterworfen: https://www.linkedin.com/help/linkedin/answer/a6282984. MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 150.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;oder bei Audioinhalten durch eine Ansage zu Beginn des Audioinhalts.&amp;lt;ref&amp;gt;&#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 148 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Verpflichtung entfällt, wenn die betreffenden Inhalte vor ihrer Veröffentlichung einer menschlichen oder redaktionellen Kontrolle unterzogen wurden und eine Person die redaktionelle Verantwortung dafür trägt. Da die Anforderungen an die menschliche bzw redaktionelle Kontrolle nicht konkretisiert werden, unterwerfen sich bspw im journalistischen Bereich zahlreiche Medien freiwilligen Leitlinien (so etwa die [https://www.blm.de/files/pdf2/ki-leitlinien.pdf Leitlinien des Medienrats der Bayerischen Landeszentrale für neue Medien (BLM) zum Einsatz von Künstlicher Intelligenz im Journalismus]).&amp;lt;ref&amp;gt;MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 163 f.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als &amp;quot;KI-Systeme mit minimalem Risiko&amp;quot; bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf den sprunghaften Durchbruch generativer KI-Modelle, die für viele verschiedene Zwecke eingesetzt werden können, in den Jahren 2022 und 2023 wurden unter Durchbrechung des bisherigen zweck- und risikoorientierten Regelungsansatzes im Entwurfsstadium des AI Act nachträglich Regeln für solche Modelle eingefügt. Diese sind seit 2. August 2025 in Geltung. Ein GPAI-Modell (in früheren Entwurfsfassungen foundation model/Basismodell) ist dabei in Art 3 Z 63 AI Act definiert als ein KI-Modell, das&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;das eine erhebliche allgemeine Verwendbarkeit aufweist,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;In den von der EU-Kommission im Juli 2025 veröffentlichten Leitlinien zu GPAI-Modellen werden eine kumulierte Menge der für das Training verwendeten Berechnungen gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; von mehr als 10&amp;lt;sup&amp;gt;23&amp;lt;/sup&amp;gt; und die Fähigkeit, geschriebene oder gesprochene Sprache (aber auch Bilder oder Videos aus Text) zu generieren, als Anhaltspunkte für das Vorliegen eines GPAI-Modells angegeben, es sei denn, das Modell erfüllt die oben angegebenen Kriterien der Allgemeinheit nicht (zB weil es spezifisch nur für die Transkription von Sprache in Text trainiert wurde).&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 13 ff.&amp;lt;/ref&amp;gt; Somit ist davon auszugehen, dass die üblichen [https://de.wikipedia.org/wiki/Large_Language_Model LLM]s, wie die GPT-Serie von OpenAI, die Gemini-Serie von Google oder die Claude-Serie von Anthropic als GPAI-Modelle im Sinne dieser Definition einzustufen sind.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt.&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Abgrenzung der Rollen entlang der Wertschöpfungskette&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&amp;lt;mark&amp;gt;In Bezug auf GPAI-Modelle können (anknüpfend an die allgemeinen Rollendefinitionen des AI Act) folgende Rollen unterschieden werden:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Anbieter (Providers) von GPAI-Modellen:&#039;&#039;&#039; Entwickeln ein GPAI-Modell oder lassen es entwickeln und bringen es ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr oder nehmen es unter ihrem eigenen Namen oder ihrer Handelsmarke in Betrieb, sei es entgeltlich oder unentgeltlich (Art 3 Z 3 AI Act);&amp;lt;ref name=&amp;quot;:3&amp;quot;&amp;gt;Vgl Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 72 ff.&amp;lt;/ref&amp;gt; sie treffen primär die nachfolgend beschriebenen Pflichten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Modifizierer (Downstream Modifiers) von GPAI-Modellen&#039;&#039;&#039;: Fine-tunen/modifizieren&amp;lt;ref&amp;gt;Vgl ErwGr 97 Satz 5.&amp;lt;/ref&amp;gt; bestehende GPAI-Modelle anderer Anbieter; laut der Kommission ist nicht jeder Modifizierer dadurch gleich als Anbieter des modifizierten GPAI-Modells anzusehen, dies jedoch dann, wenn die Modifikation des GPAI-Modells zu einer wesentlichen Änderung der Universalität, der Leistungsfähigkeit oder des systemischen Risikos des GPAI-Modells führt, wobei als Indiz dafür gilt, dass die Anzahl der Berechnungen für die Modifikation ein Drittel jener für das Training des ursprünglichen GPAI-Modells übersteigt.&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 60 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Anbieter (Downstream Providers) von KI-Systemen:&#039;&#039;&#039; Integrieren GPAI-Modelle in KI-Systeme; ein wesentlicher Zweck der Regulierung von GPAI-Modellen ist, dass nachgelagerte Anbieter, ein GPAI-Modell in ihr KI-System integrieren, Informationen über dieses Modell erhalten und darauf basierend ihren eigenen Verpflichtungen (nach den allgemeinen Regeln des AI Act für KI-Systeme) nachkommen zu können.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Betreiber (Deployers):&#039;&#039;&#039; Verwenden ein KI-System im praktischen Einsatz.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme der Hauptgegenstand der Regulierung durch den AI Act sind (risikobasierten Ansatz), unterliegen auf Ebene der Modelle nur GPAI-Modelle einer direkten Regulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese Regulierung unterscheidet zwischen GPAI-Modellen ohne und GPAI-Modellen mit systemischem Risiko. Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act), &lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über &amp;quot;Fähigkeiten mit hohem Wirkungsgrad&amp;quot; verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; FLOPs beträgt.&amp;lt;ref&amp;gt;Zur Berechnung dieser Maßzahl siehe Annex der Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 117 ff.&amp;lt;/ref&amp;gt; Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act). Oder&lt;br /&gt;
* wenn die Kommission in einer Entscheidung festgestellt hat, dass es über solche Fähigkeiten oder eine solche Wirkung verfügt (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 Abs 1 AI Act):&lt;br /&gt;
&lt;br /&gt;
# eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden&lt;br /&gt;
# Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
# eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
# eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Pflichten 1 und 2 &amp;quot;gelten nicht für Anbieter von KI-Modellen, die im Rahmen einer freien und quelloffenen Lizenz bereitgestellt werden, die den Zugang, die Nutzung, die Änderung und die Verbreitung des Modells ermöglicht und deren Parameter, einschließlich Gewichte, Informationen über die Modellarchitektur und Informationen über die Modellnutzung, öffentlich zugänglich gemacht werden. Diese Ausnahme gilt nicht für KI-Modellen [sic!] mit allgemeinem Verwendungszweck mit systemischen Risiken.&amp;quot; (Art 53 Abs 2 AI Act) In den Leitlinien der Kommission ist die (strenge) Auslegung der einzelnen Kriterien dieser Definition ausführlich dargelegt.&amp;lt;ref name=&amp;quot;:3&amp;quot; /&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 Abs 1 AI Act):&lt;br /&gt;
&lt;br /&gt;
# eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
# mögliche systemische Risiken auf Unionsebene bewerten und mindern&lt;br /&gt;
# einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
# ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten&lt;br /&gt;
&amp;lt;mark&amp;gt;Details zur Umsetzung insbesondere dieser risiko- und sicherheitsbezogenen Pflichten sind im Kapitel Sicherheit des [https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai General-Purpose AI Code of Practice] festgelegt. Siehe dazu sogleich.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung des AI Act beitragen sollen.&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von GPAI-Modellen sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 56 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 10. Juli 2025 wurde der Praxisleitfaden &amp;quot;[https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai General-Purpose AI Code of Practice]&amp;quot; veröffentlicht und von der EU-Kommission und vom KI-Gremium am 1. August 2025 gem Art 56 Abs 6 AI Act als angemessen bewertet.&amp;lt;ref&amp;gt;Europäische Kommission, Erstellung eines allgemeinen KI-Verhaltenskodex, https://digital-strategy.ec.europa.eu/de/policies/ai-code-practice.&amp;lt;/ref&amp;gt; Zu diesem wurde auch eine [https://digital-strategy.ec.europa.eu/de/faqs/questions-and-answers-code-practice-general-purpose-ai FAQ-Seite] veröffentlicht. Auch ein [https://ec.europa.eu/newsroom/dae/redirection/document/118118 Musterdokumentationsformular für Modelle] ist Teil des GPAI Code of Practice. Zusätzlich hat die EU-Kommission am 18. Juli 2025 auch [https://ec.europa.eu/newsroom/dae/redirection/document/118340 Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act] veröffentlicht.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Für Anbieter von GPAI-Modellen, die den GPAI Code of Practice unterzeichnen und diesen einhalten, können dadurch nachweisen, dass sie ihre Pflichten nach Art 53 Abs 1 und Art 55 Abs 1 AI Act erfüllen.&amp;lt;ref&amp;gt;Vgl Art 50 Abs 7 und Art 53 Abs 4 AI Act, Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 94 sowie Europäische Kommission, Der General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/de/policies/contents-code-gpai.&amp;lt;/ref&amp;gt; Damit sollen Rechtssicherheit geschaffen sowie Compliance und Vollzug vereinfacht werden. Es handelt sich dabei aber um eine freiwillige Maßnahme und es steht Anbietern von GPAI-Modellen somit frei, die entsprechenden Bestimmungen des AI Act auch auf andere Weise umzusetzen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Auf der oben verlinkten Website des GPAI Code of Practice ist angegeben, welche Anbieter von GPAI-Modellen diesen unterzeichnet haben. Darunter finden sich die meisten Anbieter der gängigen LLMs, wie Anthropic, Google, OpenAI und Mistral AI.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Stand November 2025 wurde in Österreich noch keine Behörde als zuständige Marktüberwachungsbehörde eingerichtet oder benannt. Bereits mit 2. November 2024 sind jedoch einige Behörden und öffentliche Stellen im Grundrechtsbereich gemäß Art 77 Abs 2 mit Aufsichts- und Durchsetzungsbefugnissen für Grundrechte insb im Zusammenhang mit Hochrisiko-KI ausgestattet worden, darunter die Volksanwaltschaft, die Datenschutzbehörde, die Arbeiterkammer, die Gleichbehandlungskommission, die Behindertenanwaltschaft, die KommAustria uvm.&amp;lt;ref&amp;gt;Mehr dazu unter: https://www.digitalaustria.gv.at/themen/kuenstliche-intelligenz/behoerden-art77-ai-act.html.&amp;lt;/ref&amp;gt; Dabei treffen auch die (künftig) zuständige Marktüberwachungsbehörde umfassende Kooperationspflichten, wie etwa die Meldung schwerwiegender Grundrechtsvorfälle in diesem Kontext an die genannten Einrichtungen (vgl Art 73 Abs 7 und Art 79 Abs 2 AI Act).&amp;lt;ref&amp;gt;Vgl &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 103, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Dazu hat die Kommission entsprechende Leitlinien zu veröffentlichen, die sich gerade in Ausarbeitung befinden.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung im Einzelfall betroffen sind,&lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (&amp;lt;mark&amp;gt;Recht auf Erläuterung der Entscheidungsfindung im Einzelfall gemäß Art 86 Abs 1 AI Act oder auch gemeinhin als &#039;&#039;&#039;&amp;quot;Recht auf Erklärung&amp;quot;&#039;&#039;&#039; bezeichnet&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157; &#039;&#039;Poindl/Müller,&#039;&#039; Das Recht auf Erklärung im AI Act. Betroffenenrecht mit Potenzial oder Papiertiger?, VbR 2025, 40. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei ist es unerheblich, ob das KI-System die Entscheidung gänzlich autonom getroffen hat oder unterstützend beteiligt war, es darf lediglich keine untergeordnete Rolle im Entscheidungsprozess gespielt haben.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Steht das Recht auf Erklärung zu, hat die betroffene Person einerseits das Recht, eine Erklärung über die Rolle des KI-Systems im Entscheidungsprozess zu verlangen, worunter einerseits Informationen über die zentralen Aufgaben des Systems im Entscheidungsprozess fallen (zB Zielgruppenselektion, Datenanalyse, Vorgabe der Entscheidung usw.) und andererseits auch der Grad dessen Beteiligung (gering, mittel, hoch), was umgekehrt auch den Grad menschlicher Beteiligung an der Entscheidungsfindung erfordert. Weiters sind die wichtigsten Elemente der Entscheidung zu beauskunften, beispielsweise Eingabedaten, wesentliche Entscheidungsgründe, kontrafaktische Erklärungen (inwiefern hätten andere Parameter zu einer anderen Entscheidungen geführt), die Auswirkungen der Entscheidung, die Gewichtung der einzelnen Kriterien und die Verarbeitungslogik (Informationen über die grobe Funktionsweise des KI-Systems, keine komplette Offenlegung des algorithmischen Codes). Weiters muss die Erklärung präzise, korrekt, verständlich, nicht zu technisch (keine komplexen mathematischen Formeln), aber dennoch vollständig sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letzter Referenzpunkt ist stets, ob die betroffene Person auf Basis der erlangten Informationen weitere Rechte geltend machen kann, da das Recht auf Erklärung auch oft als &amp;quot;Türöffner&amp;quot; für die Geltendmachung weiterer Rechte dient (so wird bspw eine Klage wegen Diskriminierung in einem Entscheidungsprozess erst erhoben werden können, wenn die betroffene Person genügend Informationen hat, um die Diskriminierung darzulegen, bspw die Gewichtung von bestimmten persönlichen Merkmalen, die ausschlaggebend für die Entscheidung war).&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Es handelt sich somit um ein nachgelagertes bzw &#039;&#039;ex post&#039;&#039; Recht, das nicht nur globale, abstrakte Systemerklärungen erfordert, sondern auch lokale, einzelfallbezogene Auskünfte umfasst, damit die betroffene Person die Informationen wirksam nutzbar machen kann .&amp;lt;/mark&amp;gt; Das Recht auf Erklärung steht Betroffenen gegenüber Betreibern und nicht gegenüber Anbietern zu, wobei letztere wiederum Betreibern entsprechende Betriebsanleitungen bereitzustellen haben (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung gilt nicht, sofern Ausnahmen nach Unionsrecht oder nationalem Recht bestehen (Art 86 Abs 2). Zu denken wäre hier etwa an Beschränkungen der Informationspflicht aufgrund geschützter Betriebs- oder Geschäftsgeheimnisse, wobei diese nicht zu einer pauschalen Auskunftsverweigerung führen dürfen.&amp;lt;/mark&amp;gt; Art 86 Abs 1 gilt überdies nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung Subsidiarität] ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung ist immer dann relevant, wenn Unternehmen, Behörden etc. KI in Entscheidungsfindungsprozessen einsetzen, die Auswirkungen auf bestimmte Personen(-gruppen) haben. Zu denken ist etwa an KI-basierte Entscheidungen über die Vergabe von Krediten, über die Berücksichtigung einer Bewerbung, über die Höhe einer Versicherungsprämie oder personalisierte Werbeschaltungen auf Basis von Emotionserkennung.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zum Umgang mit dem Recht auf Erklärung in der Praxis hat das &#039;&#039;Research Institute&#039;&#039; im Auftrag des Bundesministeriums für Arbeit, Soziales, Gesundheit, Pflege und Konsumentenschutz Leitlinien entwickelt:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:f1685e43-21b8-48f3-9fe5-2c61898960ae/Final_Aufkl%C3%A4rung%204.0_Unternehmensleitfaden_April2025.pdf Leitfaden für Unternehmen] im Umgang mit Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:40ba630c-39af-4b8d-8768-a69192427b09/Final_Aufkl%C3%A4rung%204.0_Konsumentinnenleitfaden_April2025.pdf Leitfaden für Konsument:innen und ihre Interessenvertretungen] zur Durchsetzung ihrer Rechte&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf Theoretischer Grundlagenbericht] zur wissenschaftlichen Fundierung der ausgesprochenen Empfehlungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Europäische Komitee für Normung (CEN) und das Europäische Komitee für elektrotechnische Normung (cenelec) wurden mittels Durchführungsbeschluss aufgefordert, bis zum 30. April 2025 bestimmte angeführte Normen auzuarbeiten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/growth/tools-databases/enorm/mandate/593_en&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Der ursprüngliche Zeitplan konnte nicht eingehalten werden und es erfolgte eine neuerliche Fristverlängerung mittels eines neuerlichen Durchführungsrechtsaktes.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl Commisson Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation as regards high-risk AI-systems in support of Regulation (EU) 2024/1689 of the European Parliament and of the Council and repealing Implementing Decision C(2023)3215 &amp;lt;nowiki&amp;gt;https://ec.europa.eu/transparency/documents-register/detail?ref=C(2025)3871&amp;amp;lang=en&amp;lt;/nowiki&amp;gt;&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Seit November 2025 liegt der erste Entwurf einer harmonisierten Norm zum Qualitätsmanagement &amp;quot;EprEN 18286, Artificial intelligence – Quality management system for EU AI Act regulatory purposes nach Art 17 AI Act zur öffentlichen Kommentierung vor.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://adamleonsmith.substack.com/p/pren-18286&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Konsultation zu diesem Normentwurf läuft bis zum 22. Jänner 2026. In den kommenden Monaten sollen weitere Normentwürfe folgen – unter anderem zu Risikomanagement, Cybersicherheit, Vertrauenswürdigkeit und Konformitätsbewertung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zudem verabschiedenen CEN/cenelec im Oktober 2025 ein Maßnahmenpaket, um die Fertigstellung wichtiger Normen, die im Rahmen von CEN-CLC/JTC 21 „Künstliche Intelligenz” entwickelt wurden, sowie der im Rahmen des Normungsantrags M/593 (und seiner Änderung M/613) geforderten Ergebnisse zu beschleunigen. Diese Maßnahmen betreffen eine Reihe von Arbeitspunkten, die die technische Grundlage für die künftigen europäischen Normen zur Unterstützung des KI-Gesetzes bilden. Die Vorstände kamen überein, im Falle einer positiven Abstimmung über die Anfrage die direkte Veröffentlichung der Entwürfe ohne separate formelle Abstimmung zuzulassen und CEN-CLC/JTC 21 zu beauftragen, eine kleine Redaktionsgruppe aus bereits aktiven Experten einzurichten, um sechs der am stärksten verzögerten Entwürfe fertigzustellen, bevor sie den jeweiligen Arbeitsgruppen zur Information und für abschließende Kommentare vorgelegt werden.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://www.cencenelec.eu/news-events/news/2025/brief-news/2025-10-23-ai-standardization/&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf die verzögerten Standards im Entwurf Digital Omnibus on AI Regulation Proposal&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;bestimmte Maßnahmen vorgeschlagen, um eine zeitnahe, reibungslose und verhältnismäßige Umsetzung bestimmter Bestimmungen des AI-Acts sicherzustellen. Als eine Maßnahme wurde dabei die Kopplung des Zeitplans für die Umsetzung der Vorschriften für hohe Risiken an die Verfügbarkeit von Normen vorgeschlagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Grundlegende Überschneidungen zwischen dem AI Act und der Datenschutz-Grundverordnung (DSGVO)&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Da KI-Systeme bzw -Modelle häufig personenbezogene Daten verarbeiten - bspw im Rahmen des Trainings eines KI-Modells oder zur Entscheidungsunterstützung in Bezug auf konkrete Personen -, stellt sich unweigerlich die Frage nach dem Zusammenwirken des AI Act mit der DSGVO.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Der Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA) des LfDI Baden-Württemberg enthält eine Auswahl von Orientierungshilfen verschiedener Aufsichtsbehörden und Gremien zu den Schnittstellen von DSGVO und KI: https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0. MwN &#039;&#039;Holtz/Ledendal,&#039;&#039; AI Data Governance - Overlaps Between the AI Act and the GDPR (iE, 2026): https://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1996843&amp;amp;dswid=-4177 sowie der [https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/DE-Bridge-Blueprint-v.0.9.pdf &amp;quot;Bridge Blueprint&amp;quot;-Entwurf] zur einheitlichen Anwendung von Datenschutz- und KI-Regulierung des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI).&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letztere knüpft ihren Anwendungsbereich nämlich an die Verarbeitung personenbezogener Daten iSd Art 4 Abs 1 DSGVO, worunter alle Informationen zu verstehen sind, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Die DSGVO ist seit 2018 in Anwendung und verfolgt den Grundsatz, dass jegliche Verarbeitung personenbezogener Daten verboten ist, es sei denn, es liegt ein Erlaubnistatbestand nach Art 6 Abs 1 DSGVO vor. Für die Verarbeitung sog &amp;quot;sensibler Daten&amp;quot; nach Art 9 DSGVO (zB Gesundheitsdaten, die ethnische Herkunft, die religiöse Weltanschauung etc.) legt sie noch strengere Maßstäbe an. Damit verfolgt die DSGVO einen horizontalen sowie prinzipienbasierten Ansatz, wonach bei der Verarbeitung personenbezogener Daten bestimmte Anforderungen und Grundsätze einzuhalten sind, ungeachtet der verwendeten Technologie, des Sektors oder des Einsatzgebiets.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 32, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus orientiert sich die Verordnung daran, inwieweit eine bestimmte Datenverarbeitung ein Risiko für die Rechte und Freiheiten natürlicher Personen darstellt (&amp;quot;risikobasierter Ansatz&amp;quot;), wonach sich letztendlich die Strenge der von ihr vorgeschriebenen Verpflichtungen bemisst.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Der AI Act erkennt das Primat der DSGVO in Art 2 Abs 7 an und statuiert, dass er deren Anwendungsbereich unberührt lässt. Somit gehen im Falle der Verarbeitung personenbezogener Daten durch eine KI-Anwendung die Regelungen der DSGVO grundsätzlich vor, während der AI Act dem ergänzend eine produktsicherheitsrechtliche Komponente beifügt, die während der Entwicklung und des Einsatzes von KI zu beachten ist.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 33, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Überschneidungen beider Rechtsakte ergeben sich bspw, sobald ein KI-Modell mit personenbezogenen Daten &#039;&#039;&#039;trainiert&#039;&#039;&#039; werden soll. In diesem Fall braucht es eine Rechtsgrundlage nach Art 6 Abs 1 DSGVO (und ggf Art 9 DSGVO), wobei hier am ehesten die berechtigten Interessen des Verantwortlichen nach lit f leg cit infrage kommen. So hat sich bspw der Facebook-Mutterkonzern Meta auf berechtigte Interessen berufen, um sein Sprachmodell &amp;quot;LLaMA&amp;quot; hinter seiner &amp;quot;Meta AI&amp;quot; mit Nutzerdaten zu trainieren. Dagegen erhob die Verbraucherschutzzentrale NRW Antrag auf Erlass einer einstweiligen Verfügung, letztendlich entschied jedoch das OLG Köln in seinem Beschluss vom 23.05.2025 (15 UKl 2/25), dass sich Meta für das KI-Training mit Nutzerdaten auf berechtigte Interessen stützen könne.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://www.verbraucherzentrale.nrw/urteilsdatenbank/digitale-welt/olg-koeln-weist-eilantrag-der-verbraucherzentrale-nrw-gegen-meta-wegen-kitraining-zurueck-108065.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Umgekehrt ist laut Art 35 DSGVO immer dann eine Datenschutz-Folgenabschätzung durchzuführen, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat, insbesondere bei Verwendung neuer Technologien. Darunter fallen gemäß §2 Abs 2 Z 4 DSFA-V&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Verordnung der Datenschutzbehörde über Verarbeitungsvorgänge, für die eine Datenschutz-Folgenabschätzung durchzuführen ist (DSFA-V), BGBl. II Nr. 278/2018.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;insbesondere Datenverarbeitung unter Einsatz von künstlicher Intelligenz, welcher jedenfalls die Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung nach sich zieht. Somit löst auch der Einsatz von KI unter gewissen Voraussetzungen datenschutzrechtliche Pflichten aus.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: Digital Services Act (DSA) vs AI Act ===&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der DSA legt einheitliche Regeln für Vermittlungsdienste mit dem Ziel fest, ein vertrauenswürdiges, (rechts-)sicheres und vorhersehbares Online-Umfeld für Verbraucher und Unternehmen durch eine harmonisierte Plattformregulierung zu gewährleisten. Ebenso zielt das Regelwerk auf den Schutz sowie die Gewährleistung einer effektiven Grundrechtsausübung und normiert umfassende Verpflichtungen für Anbieter von Online-Diensten in Form eines abgestuften Regelungsansatzes, der die unterschiedlichen Compliance-Pflichten an die Art und Größe der jeweiligen Online-Dienste knüpft. Dabei kennt der DSA folgende Anbieterkategorien: Anbieter von allgemeinen Vermittlungsdiensten, Hostingdiensten, Online- sowie Transaktionsplattformen und sehr großen Online-Plattformen (VLOPs) und -Suchmaschinen (VLOSEs). Überschneidungen mit dem AI Act können sich auf zweierlei Weise ergeben: Einerseits können KI-Anwendungen zur Generierung oder Manipulation von Inhalten verwendet werden, die dann über Vermittlungsdienste geteilt werden. Andererseits können KI-Systeme das Kernangebot des Diensteanbieters ausmachen, in der Inhaltsmoderation eingesetzt werden oder Produkt- bzw Service-Empfehlungen auf Basis von Nutzerverhalten (&amp;quot;Empfehlungsalgorithmen&amp;quot;) schalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 48, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Allgemeine Synergien sind dem [[Digital Services Act (DSA)|Eintrag über den DSA]] zu entnehmen.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
* Weiters kann es bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act in Bezug auf die notwendige Risikoanalyse kommen. &amp;lt;mark&amp;gt;So fordern die Artikel 34 und 35 DSA die Analyse jener potenzieller systemischer Risiken, die sich durch das Design, die Funktion oder die Nutzung ihrer Services ergeben, insbesondere im Zusammenhang mit algorithmischen Systemen oder Systemen zur Inhaltsmoderation. Demgegenüber legt der AI Act in Art 17 die Verpflichtung für Anbieter von Hochrisiko-KI-Systemen zur Etablierung eines Risikomanagementsystems gemäß Art 9 AI Act fest und sieht spezielle Anforderungen für Anbieter von GPAI-Modellen mit systemischem Risiko vor (Art 55 Abs 1 lit b AI Act).&amp;lt;/mark&amp;gt; Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Im Fall von Anbietern von Hochrisiko-KI-Systemen sieht der AI Act sogar explizit die Möglichkeit vor, Risikomanagementprozesse nach anderen unionsrechtlichen Bestimmungen mit jenen nach dem AI Act zu kombinieren (vgl Art 9 Abs 10 AI Act).&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 49, &amp;lt;nowiki&amp;gt;https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Art 86 AI Act normierte Recht auf Erläuterung] besteht potentiell eine Subsidiarität gegenüber anderen Auskunftsansprüchen, insb der Auskunftspflicht nach Art 15 Abs 1 lit h DSGVO iVm Art 22 DSGVO. &amp;lt;mark&amp;gt;Demnach steht Personen, die von einer automatisierten Entscheidungsfindung im Einzelfall einschließlich Profiling betroffen sind, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie ähnlich erheblich beeinträchtigt, das Recht zu, neben allgemeinen Informationen über die Verarbeitung ihrer personenbezogenen Daten aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und Auswirkungen einer derartigen Verarbeitung zu verlangen. Inhaltlich&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;richtet sich der Auskunftsanspruch nach Art 15 Abs 1 lit h DSGVO gemäß rezenter EuGH-Judikatur insb auf die Erläuterung des Verfahrens und der Grundsätze, die bei der automatisierten Verarbeitung der personenbezogenen Daten der betroffenen Person zur Anwendung kamen und zu dem bestimmten Ergebnis geführt haben.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117, Rz 58. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Frage nach einer potenziellen Subsidiarität von Art 86 AI Act gegenüber den entsprechenden datenschutzrechtlichen Vorschriften hängt von unterschiedlichen Fallszenarien ab, in denen die jeweils verwendeten Technologien und verarbeiteten Datenkategorien zu unterschiedlichen Ergebnissen führen können:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 15 Abs 1 lit h iVm Art 22 DSGVO&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsfolge&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Hochrisiko-KI-Einsatz in Entscheidungsfindungsprozessen, in denen entweder keine personenbezogenen Daten gemäß Art 4 Z 1 DSGVO verarbeitet werden (zB Verarbeitung lediglich aggregierter Daten) oder keine vollautomatisierte Entscheidung iSd Art 22 DSGVO getroffen wird (etwa weil ein Mensch maßgeblich an der Entscheidungsfindung beteiligt ist)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Das Recht auf Erklärung steht vollumfänglich wie in Art 86 Abs 1 dargelegt zu (bei Vorliegen der übrigen Voraussetzungen). Der betroffenen Person sind somit klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess und zu den wichtigsten Elementen der getroffenen Entscheidung zu übermitteln, wobei die Erklärung einzelfallbezogen und auf das konkrete Ergebnis gerichtet sein muss. Der Anwendungsbereich von Art 15 (Abs 1 lit h iVm Art 22) DSGVO ist hingegen nicht eröffnet. Das Recht, die Entscheidung anzufechten, steht - zumindest gemäß AI Act - nicht zu.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Es findet eine vollautomatisierte Entscheidungsfindung auf Basis der Verarbeitung personenbezogener Daten statt, allerdings ohne Beteiligung eines Hochrisiko-KI-Systems iSd Art 6 Abs 2 iVm Anhang III AI Act (bspw wird die Entscheidung durch einen herkömmlichen Algorithmus getroffen, der Anforderungen an ein KI-System nach Art 3 Z 1 AI Act nicht erfüllt oder das KI-System fällt nicht in den Hochrisiko-KI-Bereich)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Auskunftsanspruch gemäß Art 15 (Abs 1 lit h iVm Art 22) DSGVO steht bei Vorliegen der übrigen Voraussetzungen zu, während das Recht auf Erklärung nach Art 86 AI Act keine Anwendung findet. Es sind der betroffenen Person somit Informationen über die involvierte Logik, Tragweite und Auswirkungen der Entscheidung zu übermitteln, wobei Informationen über die Rolle des eingesetzten Systems nicht darunter fallen. Im Unterschied zu Art 86 AI Act ist in Bezug auf Art 15 Abs 1 lit h DSGVO jedoch noch unklar, ob auch eine Verpflichtung zu einer einzelfallbezogenen Begründung der konkret erzielten Ergebnisse besteht, die über eine abstrakte/allgemeine Erklärung hinausgeht.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl etwa das EuGH-Urteil in der RS Dun &amp;amp; Bradstreet, welches stärker auf das lokale Element, dh die Einzelentscheidung, abzustellen scheint (EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117). MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 71, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Art 22 Abs 3 DSGVO enthält jedoch im Gegensatz zum AI Act das Recht, die Entscheidung anzufechten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Verarbeitung personenbezogener Daten im Rahmen der Entscheidungsfindung, Einsatz eines Hochrisiko-KI-Systems, vollautomatisierte Entscheidungsfindung&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Anspruch nach Art 86 AI Act tritt ergänzend zu jenem nach der DSGVO hinzu und richtet sich auf jene Informationen, die nach Art 15 DSGVO nicht zu beauskunften sind (bspw die Rolle des KI-Systems im Entscheidungsprozess sowie jedenfalls einzelfallbezogene, lokale Erklärungen). Es handelt sich somit um eine sog &amp;quot;Lückenfüller-Position&amp;quot; von Art 86 AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Ansicht folgend und mwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 96 ff, &amp;lt;nowiki&amp;gt;https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;mark&amp;gt;In der Regel werden Betroffene in der Praxis wohl beide Ansprüche gleichzeitig geltend machen. Dies ist allerdings nur möglich, sofern beide Ansprüche auch gegenüber der selben Person bzw Einrichtung geltend zu machen sind. Denn während das Recht auf Erklärung nach Art 86 AI Act gegen den Betreiber des KI-Systems zusteht, ist der Auskunftsanspruch gemäß Art 15 Abs 1 lit h DSGVO gegen jene Person oder Stelle zu richten, welche die Entscheidung getroffen hat (welche zwar meist aber nicht zwangsläufig mit der Person des datenschutzrechtlich Verantwortlichen iSd Art 4 Z 7 DSGVO ident sein wird&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Argumentation folgend: &#039;&#039;Ziegenhorn,&#039;&#039; Wer ist Adressat des Art. 22 DSGVO? Zur Abgrenzung des Entscheiders vom Verantwortlichen, CR 2024, 586.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;). Die unterschiedlichen Rollen nach AI Act und DSGVO können somit zusammenfallen, müssen dies allerdings nicht, wodurch sich unterschiedliche Verpflichtungen für die beteiligten Akteure ergeben können.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== Produkthaftungsrichtlinie neu und Vorschlag für eine AI Liability Directive [zurückgezogen] ===&lt;br /&gt;
&lt;br /&gt;
* Die Produkthaftungsrichtlinie neu (PHRL neu) und insbesondere &amp;lt;mark&amp;gt;der (zurückgezogene)&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Commission work programme 2025, (11.2.2025) COM(2025) 45 final, 26.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Vorschlag für eine&amp;lt;/mark&amp;gt; AI Liability Directive (AILD) nehmen direkt auf den AI Act Bezug und verweisen bei der Begriffsverwendung häufig auf diesen. Die AILD kann somit nicht ohne den Kontext des AI Act verstanden werden. So sollten die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD bilden ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]). &lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act überträgt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Begleit- bzw Durchführungsgesetz, das die Sanktionen konkretisiert.  &amp;lt;mark&amp;gt;Auch die notifizierende(n) Behörde(n) und die Marktüberwachungsbehörde(n) (Art 70 AI Act) wurden in Österreich noch nicht benannt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 5: Transkriptionstool im Rahmen der Rechtspflege&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|&amp;lt;mark&amp;gt;Im Rahmen des Verfassens von Urteilen oder Protokollen wird das gesprochene Wort (Diktat des Entscheidungsorgans) digital aufgezeichnet und anschließend transkribiert. Das System ist in der Lage, mithilfe KI-gestützter Spracherkennung die jeweils Sprechenden (Speaker Diarisation) sowie juristische Begriffe und Redewendungen zu erkennen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Transkriptionssoftware liegt ein Sprachmodell (LLM) zugrunde, das auf maschinellem Lernen basiert. Dieses wird durch ein User-Interface praktisch nutzbar gemacht und stellt somit ein KI-System iSd AI Act dar.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&amp;lt;mark&amp;gt;Der Einsatz von KI in der Rechtspflege zu gewissen Zwecken kann in den Hochrisiko-KI-Bereich gemäß Art 6 Abs 2 iVm Anhang III Nr 8 lit a AI Act fallen. Solche Systeme sind jedoch nicht als hochriskant einzustufen, sofern sie für rein begleitende administrative Tätigkeiten bestimmt sind, worunter jedenfalls Spracherkennungsprogramme für das Diktieren von Entscheidungen fallen können (ErwGr 61). In einem nächsten Schritt ist die Ausnahmeregelung des Art 6 Abs 3 AI Act zu prüfen, wonach das System höchstwahrscheinlich gemäß lit a leg cit aus dem Hochrisiko-KI-Bereich ausgenommen ist, da es rein für Protokollierungszwecke eingesetzt wird und damit nur eine eng gefasste Verfahrensaufgabe übernimmt. Ebenso ist denkbar, gemäß lit d leg cit aus dem Hochrisiko-KI-Bereich ausgenommen zu sein, sofern das System lediglich eine vorbereitende Aufgabe für die Urteilserstellung übernimmt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Bejaht man hingegen das Vorliegen von Hochrisiko-KI, so treffen deren Anbieter die Pflichten der Art 8 ff AI Act und den Betreiber insbesondere die Pflichten nach Art 26 und 27 AI Act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Sofern es sich um ein KI-Modell mit allgemeinem Verwendungszweck (mit systemischem Risiko) handelt, treffen den Anbieter diesbezüglich Verpflichtungen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Unabhängig von der Risikoeinstufung des Modells bzw Systems sind darüber hinaus die Transparenzpflichten nach Art 50 AI Act zu beachten sowie ein ausreichendes Maß an KI-Kompetenz unter den Beschäftigten, die mit dem Transkriptionstool arbeiten, herzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 6: KI-System zur Filterung und Priorisierung von Bewerbungen&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Sachverhalt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen möchte eine neue Stelle besetzen und erhält unzählige Bewerbungen. Daher entschließt es sich, ein KI-basiertes System einzusetzen, das Bewerbungen filtert und mit einem Einstufungswert versieht, wodurch die Bewerbungen priorisiert werden. Die zuständigen HR-Mitarbeiter*innen weichen nicht mehr von dem Wert ab und vergeben die Stelle schließlich an jene Person, die den höchsten Einstufungswert erhalten hat.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!&amp;lt;mark&amp;gt;Einordnung AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Sofern es sich bei der Anwendung um ein KI-System nach Art 3 Z 1 AI Act handelt, ist der Anwendungsbereich des AI Act grundsätzlich eröffnet. Das Unternehmen ist jedenfalls als dessen Betreiber zu qualifizieren, da es das System in eigener Verantwortung zu beruflichen Zwecken einsetzt. Sofern es das KI-System auch selbst entwickelt / entwickeln lässt und es unter eigener Marke bzw eigenem Namen in Betrieb nimmt, ist es sogar Anbieter.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]].&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Darüber hinaus stellt das System ein &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System nach Art 6 Abs 2 iVm Anhang III Punkt 4a AI Act dar, da es bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet wird, um Bewerbungen zu filtern und Bewerber zu bewerten. Eine Ausnahme nach Art 6 Abs 3 AI Act vom Hochrisiko-KI-Bereich liegt nicht vor, da das KI-System das Ergebnis der Entscheidungsfindung wesentlich beeinflusst (von dem KI-generierten Eignungswert wird nicht mehr abgewichen). Je nach Rolle treffen das Unternehmen nun weitereichende Verpflichtungen. In den meisten Fällen wird das Unternehmen wohl als Betreiber zu klassifizieren sein, weshalb es unter anderem die Betreiberpflichten nach Art 26 AI Act zu erfüllen und unter gewissen Voraussetzungen eine Grundrechte-Folgenabschätzung nach Art 27 AI Act durchzuführen hat. Art 26 Abs 7 sieht grundsätzlich auch die spezielle Betreiberpflicht vor, vor Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz die Arbeitnehmervertreter und betroffenen Arbeitnehmer über den KI-Einsatz zu informieren. Inwieweit diese Verpflichtung auch gegenüber Bewerbern gilt, die streng genommen (noch) keine Arbeitnehmer sind, ist fraglich und wird wohl zu verneinen sind. Diese vermeintliche Rechtsschutzlücke wird jedoch ohnehin wieder durch die Verpflichtung gemäß Art 26 Abs 11 AI Act ausgeglichen, von Hochrisiko-KI-Entscheidungen betroffene Personen über diesen KI-Einsatz zu informieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= &amp;lt;mark&amp;gt;Digitaler Omnibus&amp;lt;/mark&amp;gt; =&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 19. November 2025 stellte die Europäische Kommission das sogenannte &#039;&#039;&#039;„Digital Omnibus Package“&#039;&#039;&#039; vor, ein Legislativpaket mit dem Ziel, den digitalen Rechtsrahmen der EU zu vereinfachen.&amp;lt;ref name=&amp;quot;:2&amp;quot;&amp;gt;Vgl https://ec.europa.eu/commission/presscorner/detail/de/ip_25_2718. &amp;lt;/ref&amp;gt; Ziel der Maßnahme ist, Verwaltungs- und Umsetzungskosten zu senken, Rechtsklarheit zu erhöhen und insbesondere kleine und mittlere Unternehmen (KMU) zu entlasten, da Unternehmen zunehmend Schwierigkeiten bei der Umsetzung und Koordination von Vorgaben wie etwa dem AI Act sehen. Das Paket umfasst Änderungen und Anpassungen unterschiedlicher Rechtsrahmen, so auch einige Bestimmungen des AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Inhaltliche Änderungen betreffen einerseits die Verpflichtung zur Sicherstellung von KI-Kompetenz (Art 4), welche nunmehr nicht Unternehmen bzw. Einrichtungen selbst treffen soll, sondern die Kommission und die Mitgliedstaaten sind dazu angehalten, Anbieter und Betreiber zur Sicherstellung eines angemessenen Maßes an KI-Kompetenz zu unterstützen. Ebenso stellt die Kommission eine Verzögerung der Anwendbarkeit der Hochrisiko-KI-Bestimmungen in Aussicht, welche mit 2. August 2026 bzw 2. August 2027 Anwendung erlangen sollten. Grund ist das Fehlen von entsprechenden Standards, die eigentlich bis August 2025 zu setzen waren und ohne die laut Kommission die Einhaltung der entsprechenden AI Act-Bestimmungen nicht möglich sei. Die Anwendbarkeit der Hochrisiko-KI-Bestimmungen soll sich um bis zu maximal 16 Monate verzögern, wobei die Vorschriften Geltung erlangen, sobald die Kommission die Verfügbarkeit der erforderlichen Standards und Unterstützungsinstrumente bestätigt.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:2&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus enthält der Vorschlag einen neuen Art 4a, der die Verarbeitung sensibler personenbezogener Daten zur Erkennung und Minderung von Bias unter gewissen Voraussetzungen ermöglicht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Kommissionsleitlinien und sonstige Materialen/Verhaltenskodizes&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zur Definition eines Systems der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 6. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118628&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 4. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118661&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Living Repository zur Förderung des Lernens und des Austausches über KI-Kompetenz vom 04. Februar 2025 (mit Update von April 2025): https://ec.europa.eu/newsroom/dae/redirection/document/112203&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Praxisleitfaden für KI-Modelle mit allgemeinem Verwendungszweck (General-Purpose AI Code of Practice) vom 10. Juli 2025: https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Transparenz: https://ec.europa.eu/newsroom/dae/redirection/document/118120&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Urheberrecht: https://ec.europa.eu/newsroom/dae/redirection/document/118115&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Sicherheit: https://ec.europa.eu/newsroom/dae/redirection/document/118119&amp;lt;/mark&amp;gt;  &lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act vom 18. Juli 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118340&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien und Meldevorlagen zur Meldung schwerwiegender KI-Vorfälle gemäß Art 73 AI Act (&#039;&#039;Entwurf, noch in Ausarbeitung&#039;&#039;): https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; AI Act Service Desk. Frequently Asked Questions (FAQs): https://ai-act-service-desk.ec.europa.eu/en/faq.&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Whistleblower Tool for AI Act, https://digital-strategy.ec.europa.eu/en/news/commission-launches-whistleblower-tool-ai-act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act)&amp;lt;mark&amp;gt;&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024) &amp;lt;mark&amp;gt;(2. Auflage 2026, iE)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schefzig/Kilian,&#039;&#039; BeckOK KI-Recht&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Hochrangige Expertengruppe für Künstliche Intelligenz,&#039;&#039; Ethik-Leitlinien für eine vertrauenswürdige KI (2019), https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425&amp;lt;/mark&amp;gt;&lt;br /&gt;
* [https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0 Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA)]&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=4393</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=4393"/>
		<updated>2025-12-09T12:01:01Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* European Digital Identity Wallet (EUDIW) */ Präzisierung zu den Durchführungsrechtsakten&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält zudem eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Signaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Dies führte dazu, dass elektronische Identifizierungssysteme nicht in allen Mitgliedstaaten gleichermaßen zur Verfügung standen und ihre Verbreitung teilweise gering blieb, insbesondere in Bezug auf die Verwendung im privaten Sektor.&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/eudi-regulation Europäische Kommission, Verordnung über die europäische digitale Identität (EUDI)]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um diese Mängel zu beheben, wurde eine umfangreiche Novellierung der eIDAS-VO erarbeitet – bekannt als eIDAS 2.0 – die am 20. Mai 2024 in Kraft trat. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. Wegen ihrer hohen Anzahl kann hier &amp;lt;mark&amp;gt;nicht auf alle&amp;lt;/mark&amp;gt; näher eingegangen werden. &amp;lt;mark&amp;gt;Mit Stand November 2025 liegen zahlreiche Durchführungsverordnungen der Kommission bereits vor,&amp;lt;ref&amp;gt;Eine stets aktualisierte komplette Liste aller eIDAS-Durchführungsrechtsakte findet sich hier: &#039;&#039;Europäische Kommission,&#039;&#039; European Digital Identity Wallet, https://eudi.dev/latest/&amp;lt;/ref&amp;gt; insbesondere zur Ausgestaltung der EUDIW, siehe dazu [https://wiki.atlaws.eu/index.php/Regulation_on_electronic_identification_and_trust_services_(eIDAS)#Umsetzungsstand_und_Pilotprojekte_der_EUDIW unten], andere befinden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Identifizierung ===&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
==== European Digital Identity Wallet (EUDIW) ====&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss &amp;lt;mark&amp;gt;bis spätestens 24.12.2026&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Art 5a Abs 1 legt diesen Zeitpunkt auf 24 Monate nach dem Inkrafttreten der entsprechenden Durchführungsrechtsakte fest, die am 4.12.2024 veröffentlicht wurden und 20 Tage danach in Kraft traten.&amp;lt;/ref&amp;gt; zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
===== Funktionen der EUDIW =====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde zu erstatten, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss das Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
===== Datenschutz und Datensicherheit =====&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 und in der Phase der Ausarbeitung der Durchführungsrechtsakte ein vieldiskutiertes Thema. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Die betreffende Durchführungsverordnung &amp;lt;mark&amp;gt;zur Registrierung vertrauender Beteiligter ([https://eur-lex.europa.eu/eli/reg_impl/2025/848/oj 2025/848]) kann als Aufweichung dieser Prinzipien verstanden werden, da sie in Art 8 Mitgliedstaaten nicht verpflichtet, einer Zertifizierungsbehörde die Befugnis zur Ausstellung von Registrierungszertifikaten für vertrauende Beteiligte zu erteilen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Man könnte argumentieren, da dies nicht Art 5b Abs 3 eIDAS-VO in Verbindung mit dem Gebot des Art 25 DSGVO zum Datenschutz durch Technikgestaltung und durch datenschutzfreundliche Voreinstellungen entspricht, kann dies nicht so auszulegen sein. Jedenfalls scheint es aber so intendiert gewesen zu sein, denn ErwGr 10 der Durchführungsverordnung 2025/848 spricht tatsächlich den Fall an, dass ein &amp;quot;vertrauender Beteiligter mehr Informationen abfragt als diejenigen, für die er registriert oder zugangsberechtigt ist&amp;quot;. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dieser Aspekt wurde im Zuge der Konsultation trotz deutlicher Kritik&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe dazu insbesondere den offenen Brief der Zivilgesellschaft vom 20. Jänner 2025, https://epicenter.works/content/zivilgesellschaft-fordert-eu-kommission-muss-schlupfloecher-in-der-eid-schliessen.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;nicht geändert und führt nun dazu, dass die Rechtmäßigkeit dieser Bestimmung der Durchführungsverordnung angesichts der soeben wiedergegeben verbindlichen Regeln der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] sowie [https://netzpolitik.org/2025/digitale-brieftasche-eu-kommission-oeffnet-schlupfloecher-fuer-ueberidentifikation/ Leisegang, EU-Kommission soll „Schlupflöcher“ bei digitaler Brieftasche schließen, 02.04.2025] &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
===== Annahmepflichten der EUDIW =====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Umsetzungsstand und Pilotprojekte der EUDIW&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
&amp;lt;mark&amp;gt;Zur Vorbereitung des Roll-outs der EUDIW koordiniert die Kommission über die sog. „Toolbox“ und das Architecture and Reference Framework (ARF) die technische Zusammenarbeit der Mitgliedstaaten. Das [https://github.com/eu-digital-identity-wallet/eudi-doc-architecture-and-reference-framework ARF] wird regelmäßig aktualisiert und dient als Referenzdokument für Wallet-Implementierungen, Schnittstellen und Sicherheitsanforderungen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;[https://eudi.dev/latest/ &#039;&#039;Europäische Kommission,&#039;&#039; European Digital Identity]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Parallel dazu laufen mehrere von der EU kofinanzierte „Large Scale Pilot“-Projekte, in deren Rahmen der Einsatz der EUDIW in verschiedenen grenzüberschreitenden Use Cases (zB E-Government, Führerschein, Bankkonteneröffnung) praktisch getestet wird.&amp;lt;ref&amp;gt;[https://ec.europa.eu/digital-building-blocks/sites/spaces/EUDIGITALIDENTITYWALLET/pages/694487808/What%2Bare%2Bthe%2BLarge%2BScale%2BPilot%2BProjects European Commission, What are the Large Scale Pilots]&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 4. Dezember 2024 wurden fünf Durchführungsverordnungen veröffentlicht, die ua Personenidentifizierungsdaten und elektronische Attributsbescheinigungen ([https://eur-lex.europa.eu/eli/reg_impl/2024/2977/oj DurchführungsVO (EU) 2024/2977]), die Integrität und Kernfunktionen der Wallet ([https://eur-lex.europa.eu/eli/reg_impl/2024/2979/oj 2024/2979]), die Notifizierung bezüglich des Wallet-Ökosystems ([https://eur-lex.europa.eu/eli/reg_impl/2024/2980/oj 2024/2980]), die Zertifizierung von Wallets ([https://eur-lex.europa.eu/eli/reg_impl/2024/2981/oj 2024/2981]) sowie die zu unterstützenden Protokolle und Schnittstellen ([https://eur-lex.europa.eu/eli/reg_impl/2024/2982/oj 2024/2982]) konkretisieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 7. Mai 2025 folgte eine zweite Runde von Durchführungsverordnungen, ua zum grenzüberschreitenden Identitätsabgleich natürlicher Personen ([https://eur-lex.europa.eu/eli/reg_impl/2025/846/oj 2025/846]), zur Reaktion auf Sicherheitsverletzungen von Wallets ([https://eur-lex.europa.eu/eli/reg_impl/2025/847/oj 2025/847]), zur Registrierung vertrauender Beteiligter ([https://eur-lex.europa.eu/eli/reg_impl/2025/848/oj 2025/848]), sowie zur Übermittlung von Informationen an die Kommission und die Kooperationsgruppe für die Liste zertifizierter Wallets ([https://eur-lex.europa.eu/eli/reg_impl/2025/849/oj 2025/849]).&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ====&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Vertrauensdienste ===&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Signaturen ====&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 eIDAS-VO als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Siegel ====&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Zeitstempel ====&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
==== Dienste für die Zustellung elektronischer Einschreiben ====&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
==== Website-Authentifizierung ====&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert und standardmäßig verwendet, erkennbar an der Präfix &amp;quot;https&amp;quot; in der URL-Zeile des Browsers und dem daneben angezeigten stilisierten Schloss. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte diesbezüglich jedoch eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://netzpolitik.org/2023/eidas-reform-schlagabtausch-zwischen-forschenden-und-eu-parlament/ &#039;&#039;Leisegang&#039;&#039;, Schlagabtausch zwischen Forschenden und EU-Parlament, Netzpolitik.org, 07.12.2023]&amp;lt;/ref&amp;gt; Als Kompromisslösung wurde daher in Art 45a Abs 2 eIDAS-VO klargestellt, dass Anbieter von Webbrowsern in Fällen begründeter Bedenken hinsichtlich Sicherheitsverletzungen oder eines Integritätsverlusts eines bestimmten Zertifikats oder eines Satzes von Zertifikaten Vorsorgemaßnahmen in Bezug auf dieses Zertifikat oder diesen Satz von Zertifikaten ergreifen können und die Kommission hielt in einer förmlichen Erklärung fest, dass Art 45 eIDAS-VO Anbietern von Webbrowsern keine Verpflichtungen und Einschränkungen hinsichtlich der Gewährleistung vertraulicher Online-Kommunikation auferlege.&amp;lt;ref&amp;gt;[https://netzpolitik.org/2024/eidas-reform-eu-parlament-stimmt-fuer-digitale-brieftasche/ &#039;&#039;Leisegang&#039;&#039;, EU-Parlament stimmt für digitale Brieftasche, Netzpolitik.org, 29.02.2024]&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://www.europarl.europa.eu/doceo/document/A-9-2023-0038-AM-007-007_EN.pdf Statement by the Commission on Article 45 on the occasion of the adoption of Regulation 2024/...]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Attributsbescheinigungen ====&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Archivierungsdienste ====&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Journale (electronic ledgers) ====&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
&lt;br /&gt;
* Wie oben dargestellt, enthält die eIDAS-VO zahlreiche Bestimmungen, um die Einhaltung der Datenschutzgrundsätze, insbesondere des Grundsatzes der Datenminimierung, in Bezug auf das EUDIW sicherzustellen. Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; [https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32016R0679 DSGVO (Datenschutz-Grundverordnung)] gilt. Die beiden Verordnungen stehen somit grundsätzlich nebeneinander. Eindeutig ist die Rechtslage dahingehend, dass die Durchführungsrechtsakte zur eIDAS-VO den Bestimmungen der DSGVO nicht widersprechen dürfen und dass vertrauende Beteiligte in ihrem Umgang mit den EUDIW-Nutzern und mit deren Daten nicht nur die Bestimmungen der eIDAS-VO, sondern auch die Bestimmungen der DSGVO einhalten müssen.&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;European Business Wallets&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Am 19. November 2025 veröffentlichte die Kommission einen Vorschlag für eine Verordnung über die Einrichtung europäischer Brieftaschen für Unternehmen (European Business Wallets).&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/library/proposal-regulation-establishment-european-business-wallets Europäische Kommission, Vorschlag für eine Verordnung über die Einrichtung europäischer Brieftaschen für Unternehmen]&amp;lt;/ref&amp;gt; Diese sollen technisch auf den EUDIW aufbauen&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/business-wallets Europäische Kommission, EU-Brieftaschen für Unternehmen]&amp;lt;/ref&amp;gt; und - sofern die Verordnung beschlossen wird -  Unternehmen in der EU die grenzüberschreitende Authentifizierung (insbesondere, aber nicht nur gegenüber Behörden) und den vertrauenswürdigen Austausch von Dokumenten ermöglichen und damit den Verwaltungsaufwand für Unternehmen reduzieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Weiterführende Links&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission&#039;&#039;, eIDAS Dashboard, https://eidas.ec.europa.eu/efda/discover/eu-trust-service-framework&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; EU Digital Identity Wallet Home, https://ec.europa.eu/digital-building-blocks/sites/spaces/EUDIGITALIDENTITYWALLET/pages/694487738/EU+Digital+Identity+Wallet+Home&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; European Digital Identity Wallet, https://eudi.dev/latest/&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; Architecture and Reference Framework, https://github.com/eu-digital-identity-wallet/eudi-doc-architecture-and-reference-framework&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=4391</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=4391"/>
		<updated>2025-12-05T14:04:42Z</updated>

		<summary type="html">&lt;p&gt;Walter: EUDIW-Umsetzung und die Kritik an der Aufweichung der Registrierung für vertrauende Beteiligte.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält zudem eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Signaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Dies führte dazu, dass elektronische Identifizierungssysteme nicht in allen Mitgliedstaaten gleichermaßen zur Verfügung standen und ihre Verbreitung teilweise gering blieb, insbesondere in Bezug auf die Verwendung im privaten Sektor.&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/eudi-regulation Europäische Kommission, Verordnung über die europäische digitale Identität (EUDI)]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um diese Mängel zu beheben, wurde eine umfangreiche Novellierung der eIDAS-VO erarbeitet – bekannt als eIDAS 2.0 – die am 20. Mai 2024 in Kraft trat. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. Wegen ihrer hohen Anzahl kann hier &amp;lt;mark&amp;gt;nicht auf alle&amp;lt;/mark&amp;gt; näher eingegangen werden. &amp;lt;mark&amp;gt;Mit Stand November 2025 liegen zahlreiche Durchführungsverordnungen der Kommission bereits vor,&amp;lt;ref&amp;gt;Eine stets aktualisierte komplette Liste aller eIDAS-Durchführungsrechtsakte findet sich hier: &#039;&#039;Europäische Kommission,&#039;&#039; European Digital Identity Wallet, https://eudi.dev/latest/&amp;lt;/ref&amp;gt; insbesondere zur Ausgestaltung der EUDIW, siehe dazu [https://wiki.atlaws.eu/index.php/Regulation_on_electronic_identification_and_trust_services_(eIDAS)#Umsetzungsstand_und_Pilotprojekte_der_EUDIW unten], andere befinden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Identifizierung ===&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
==== European Digital Identity Wallet (EUDIW) ====&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss &amp;lt;mark&amp;gt;bis spätestens 24.12.2026&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Art 5a Abs 1 legt diesen Zeitpunkt auf 24 Monate nach dem Inkrafttreten der entsprechenden Durchführungsrechtsakte fest, die am 4.12.2024 veröffentlicht wurden und 20 Tage danach in Kraft traten.&amp;lt;/ref&amp;gt; zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
===== Funktionen der EUDIW =====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde zu erstatten, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss das Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
===== Datenschutz und Datensicherheit =====&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 und in der Phase der Ausarbeitung der Durchführungsrechtsakte ein vieldiskutiertes Thema. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Die betreffende Durchführungsverordnung &amp;lt;mark&amp;gt;zur Registrierung vertrauender Beteiligter ([https://eur-lex.europa.eu/eli/reg_impl/2025/848/oj 2025/848]) kann als Aufweichung dieser Prinzipien verstanden werden, da sie in Art 8 Mitgliedstaaten nicht verpflichtet, einer Zertifizierungsbehörde die Befugnis zur Ausstellung von Registrierungszertifikaten für vertrauende Beteiligte zu erteilen. Dieser Aspekt wurde im Zuge der Konsultation trotz deutlicher Kritik nicht mehr geändert und führt nun dazu, dass die Rechtmäßigkeit dieser Bestimmung der Durchführungsverordnung angesichts der soeben wiedergegeben verbindlichen Regeln der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] sowie [https://netzpolitik.org/2025/digitale-brieftasche-eu-kommission-oeffnet-schlupfloecher-fuer-ueberidentifikation/ Leisegang, EU-Kommission soll „Schlupflöcher“ bei digitaler Brieftasche schließen, 02.04.2025] &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
===== Annahmepflichten der EUDIW =====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Umsetzungsstand und Pilotprojekte der EUDIW&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
&amp;lt;mark&amp;gt;Zur Vorbereitung des Roll-outs der EUDIW koordiniert die Kommission über die sog. „Toolbox“ und das Architecture and Reference Framework (ARF) die technische Zusammenarbeit der Mitgliedstaaten. Das [https://github.com/eu-digital-identity-wallet/eudi-doc-architecture-and-reference-framework ARF] wird regelmäßig aktualisiert und dient als Referenzdokument für Wallet-Implementierungen, Schnittstellen und Sicherheitsanforderungen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;[https://eudi.dev/latest/ &#039;&#039;Europäische Kommission,&#039;&#039; European Digital Identity]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Parallel dazu laufen mehrere von der EU kofinanzierte „Large Scale Pilot“-Projekte, in deren Rahmen der Einsatz der EUDIW in verschiedenen grenzüberschreitenden Use Cases (zB E-Government, Führerschein, Bankkonteneröffnung) praktisch getestet wird.&amp;lt;ref&amp;gt;[https://ec.europa.eu/digital-building-blocks/sites/spaces/EUDIGITALIDENTITYWALLET/pages/694487808/What%2Bare%2Bthe%2BLarge%2BScale%2BPilot%2BProjects European Commission, What are the Large Scale Pilots]&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 4. Dezember 2024 wurden fünf Durchführungsverordnungen veröffentlicht, die ua Personenidentifizierungsdaten und elektronische Attributsbescheinigungen ([https://eur-lex.europa.eu/eli/reg_impl/2024/2977/oj DurchführungsVO (EU) 2024/2977]), die Integrität und Kernfunktionen der Wallet ([https://eur-lex.europa.eu/eli/reg_impl/2024/2979/oj 2024/2979]), die Notifizierung bezüglich des Wallet-Ökosystems ([https://eur-lex.europa.eu/eli/reg_impl/2024/2980/oj 2024/2980]), die Zertifizierung von Wallets ([https://eur-lex.europa.eu/eli/reg_impl/2024/2981/oj 2024/2981]) sowie die zu unterstützenden Protokolle und Schnittstellen ([https://eur-lex.europa.eu/eli/reg_impl/2024/2982/oj 2024/2982]) konkretisieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 7. Mai 2025 folgte eine zweite Runde von Durchführungsverordnungen, ua zum grenzüberschreitenden Identitätsabgleich natürlicher Personen ([https://eur-lex.europa.eu/eli/reg_impl/2025/846/oj 2025/846]), zur Reaktion auf Sicherheitsverletzungen von Wallets ([https://eur-lex.europa.eu/eli/reg_impl/2025/847/oj 2025/847]), zur Registrierung vertrauender Beteiligter ([https://eur-lex.europa.eu/eli/reg_impl/2025/848/oj 2025/848]), sowie zur Übermittlung von Informationen an die Kommission und die Kooperationsgruppe für die Liste zertifizierter Wallets ([https://eur-lex.europa.eu/eli/reg_impl/2025/849/oj 2025/849]).&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ====&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Vertrauensdienste ===&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Signaturen ====&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 eIDAS-VO als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Siegel ====&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Zeitstempel ====&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
==== Dienste für die Zustellung elektronischer Einschreiben ====&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
==== Website-Authentifizierung ====&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert und standardmäßig verwendet, erkennbar an der Präfix &amp;quot;https&amp;quot; in der URL-Zeile des Browsers und dem daneben angezeigten stilisierten Schloss. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte diesbezüglich jedoch eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://netzpolitik.org/2023/eidas-reform-schlagabtausch-zwischen-forschenden-und-eu-parlament/ &#039;&#039;Leisegang&#039;&#039;, Schlagabtausch zwischen Forschenden und EU-Parlament, Netzpolitik.org, 07.12.2023]&amp;lt;/ref&amp;gt; Als Kompromisslösung wurde daher in Art 45a Abs 2 eIDAS-VO klargestellt, dass Anbieter von Webbrowsern in Fällen begründeter Bedenken hinsichtlich Sicherheitsverletzungen oder eines Integritätsverlusts eines bestimmten Zertifikats oder eines Satzes von Zertifikaten Vorsorgemaßnahmen in Bezug auf dieses Zertifikat oder diesen Satz von Zertifikaten ergreifen können und die Kommission hielt in einer förmlichen Erklärung fest, dass Art 45 eIDAS-VO Anbietern von Webbrowsern keine Verpflichtungen und Einschränkungen hinsichtlich der Gewährleistung vertraulicher Online-Kommunikation auferlege.&amp;lt;ref&amp;gt;[https://netzpolitik.org/2024/eidas-reform-eu-parlament-stimmt-fuer-digitale-brieftasche/ &#039;&#039;Leisegang&#039;&#039;, EU-Parlament stimmt für digitale Brieftasche, Netzpolitik.org, 29.02.2024]&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://www.europarl.europa.eu/doceo/document/A-9-2023-0038-AM-007-007_EN.pdf Statement by the Commission on Article 45 on the occasion of the adoption of Regulation 2024/...]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Attributsbescheinigungen ====&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Archivierungsdienste ====&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Journale (electronic ledgers) ====&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
&lt;br /&gt;
* Wie oben dargestellt, enthält die eIDAS-VO zahlreiche Bestimmungen, um die Einhaltung der Datenschutzgrundsätze, insbesondere des Grundsatzes der Datenminimierung, in Bezug auf das EUDIW sicherzustellen. Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; [https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32016R0679 DSGVO (Datenschutz-Grundverordnung)] gilt. Die beiden Verordnungen stehen somit grundsätzlich nebeneinander. Eindeutig ist die Rechtslage dahingehend, dass die Durchführungsrechtsakte zur eIDAS-VO den Bestimmungen der DSGVO nicht widersprechen dürfen und dass vertrauende Beteiligte in ihrem Umgang mit den EUDIW-Nutzern und mit deren Daten nicht nur die Bestimmungen der eIDAS-VO, sondern auch die Bestimmungen der DSGVO einhalten müssen.&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;European Business Wallets&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Am 19. November 2025 veröffentlichte die Kommission einen Vorschlag für eine Verordnung über die Einrichtung europäischer Brieftaschen für Unternehmen (European Business Wallets).&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/library/proposal-regulation-establishment-european-business-wallets Europäische Kommission, Vorschlag für eine Verordnung über die Einrichtung europäischer Brieftaschen für Unternehmen]&amp;lt;/ref&amp;gt; Diese sollen technisch auf den EUDIW aufbauen&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/business-wallets Europäische Kommission, EU-Brieftaschen für Unternehmen]&amp;lt;/ref&amp;gt; und - sofern die Verordnung beschlossen wird -  Unternehmen in der EU die grenzüberschreitende Authentifizierung (insbesondere, aber nicht nur gegenüber Behörden) und den vertrauenswürdigen Austausch von Dokumenten ermöglichen und damit den Verwaltungsaufwand für Unternehmen reduzieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Weiterführende Links&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission&#039;&#039;, eIDAS Dashboard, https://eidas.ec.europa.eu/efda/discover/eu-trust-service-framework&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; EU Digital Identity Wallet Home, https://ec.europa.eu/digital-building-blocks/sites/spaces/EUDIGITALIDENTITYWALLET/pages/694487738/EU+Digital+Identity+Wallet+Home&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; European Digital Identity Wallet, https://eudi.dev/latest/&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; Architecture and Reference Framework, https://github.com/eu-digital-identity-wallet/eudi-doc-architecture-and-reference-framework&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=4379</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=4379"/>
		<updated>2025-12-04T13:42:37Z</updated>

		<summary type="html">&lt;p&gt;Walter: EUDIW Durchführungsrechtsakte&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Signaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Dies führte dazu, dass elektronische Identifizierungssysteme nicht in allen Mitgliedstaaten gleichermaßen zur Verfügung standen und ihre Verbreitung teilweise gering blieb, insbesondere in Bezug auf die Verwendung im privaten Sektor.&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/eudi-regulation Europäische Kommission, Verordnung über die europäische digitale Identität (EUDI)]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um diese Mängel zu beheben, wurde eine umfangreiche Novellierung der eIDAS-VO erarbeitet – bekannt als eIDAS 2.0 – die am 20. Mai 2024 in Kraft trat. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. Wegen ihrer hohen Anzahl kann hier &amp;lt;mark&amp;gt;nicht auf alle&amp;lt;/mark&amp;gt; näher eingegangen werden. &amp;lt;mark&amp;gt;Mit Stand November 2025 liegen zahlreiche Durchführungsverordnungen der Kommission bereits vor,&amp;lt;ref&amp;gt;Eine stets aktualisierte komplette Liste aller eIDAS-Durchführungsrechtsakte findet sich hier: &#039;&#039;Europäische Kommission,&#039;&#039; European Digital Identity Wallet, https://eudi.dev/latest/&amp;lt;/ref&amp;gt; insbesondere zur Ausgestaltung der EUDIW, siehe dazu [https://wiki.atlaws.eu/index.php/Regulation_on_electronic_identification_and_trust_services_(eIDAS)#Umsetzungsstand_und_Pilotprojekte_der_EUDIW unten], andere befinden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; In den Entwürfen zeichnete sich zuletzt eine Aufweichung der unten beschriebenen Datenschutz- und Datensicherheitsmaßnahmen des EUDIW ab, sodass diese Gegenstand intensiver politischer Diskussionen sind.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Identifizierung ===&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
==== European Digital Identity Wallet (EUDIW) ====&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
===== Funktionen der EUDIW =====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde zu erstatten, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss das Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
===== Datenschutz und Datensicherheit =====&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Insbesondere zu diesen Aspekten zeichnete sich zuletzt in der betreffenden Durchführungsverordnung eine Aufweichung ab, deren Zulässigkeit angesichts der soeben wiedergegeben Bestimmungen der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
===== Annahmepflichten der EUDIW =====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Umsetzungsstand und Pilotprojekte der EUDIW&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
&amp;lt;mark&amp;gt;Zur Vorbereitung des Roll-outs der EUDIW koordiniert die Kommission über die sog. „Toolbox“ und das Architecture and Reference Framework (ARF) die technische Zusammenarbeit der Mitgliedstaaten. Das [https://github.com/eu-digital-identity-wallet/eudi-doc-architecture-and-reference-framework ARF] wird regelmäßig aktualisiert und dient als Referenzdokument für Wallet-Implementierungen, Schnittstellen und Sicherheitsanforderungen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;[https://eudi.dev/latest/ &#039;&#039;Europäische Kommission,&#039;&#039; European Digital Identity]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Parallel dazu laufen mehrere von der EU kofinanzierte „Large Scale Pilot“-Projekte, in deren Rahmen der Einsatz der EUDIW in verschiedenen grenzüberschreitenden Use Cases (zB E-Government, Führerschein, Bankkonteneröffnung) praktisch getestet wird.&amp;lt;ref&amp;gt;[https://ec.europa.eu/digital-building-blocks/sites/spaces/EUDIGITALIDENTITYWALLET/pages/694487808/What%2Bare%2Bthe%2BLarge%2BScale%2BPilot%2BProjects European Commission, What are the Large Scale Pilots]&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 4. Dezember 2024 wurden fünf Durchführungsverordnungen veröffentlicht, die ua Personenidentifizierungsdaten und elektronische Attributsbescheinigungen ([https://eur-lex.europa.eu/eli/reg_impl/2024/2977/oj DurchführungsVO (EU) 2024/2977]), die Integrität und Kernfunktionen der Wallet ([https://eur-lex.europa.eu/eli/reg_impl/2024/2979/oj 2024/2979]), die Notifizierung bezüglich des Wallet-Ökosystems ([https://eur-lex.europa.eu/eli/reg_impl/2024/2980/oj 2024/2980]), die Zertifizierung von Wallets ([https://eur-lex.europa.eu/eli/reg_impl/2024/2981/oj 2024/2981]) sowie die zu unterstützenden Protokolle und Schnittstellen ([https://eur-lex.europa.eu/eli/reg_impl/2024/2982/oj 2024/2982]) konkretisieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 7. Mai 2025 folgte eine zweite Runde von Durchführungsverordnungen, ua zum grenzüberschreitenden Identitätsabgleich natürlicher Personen ([https://eur-lex.europa.eu/eli/reg_impl/2025/846/oj 2025/846]), zur Reaktion auf Sicherheitsverletzungen von Wallets ([https://eur-lex.europa.eu/eli/reg_impl/2025/847/oj 2025/847]), zur Registrierung vertrauender Beteiligter ([https://eur-lex.europa.eu/eli/reg_impl/2025/848/oj 2025/848]), sowie zur Übermittlung von Informationen an die Kommission und die Kooperationsgruppe für die Liste zertifizierter Wallets ([https://eur-lex.europa.eu/eli/reg_impl/2025/849/oj 2025/849]).&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ====&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Vertrauensdienste ===&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Signaturen ====&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 eIDAS-VO als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Siegel ====&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Zeitstempel ====&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
==== Dienste für die Zustellung elektronischer Einschreiben ====&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
==== Website-Authentifizierung ====&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert und standardmäßig verwendet, erkennbar an der Präfix &amp;quot;https&amp;quot; in der URL-Zeile des Browsers und dem daneben angezeigten stilisierten Schloss. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte diesbezüglich jedoch eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://netzpolitik.org/2023/eidas-reform-schlagabtausch-zwischen-forschenden-und-eu-parlament/ &#039;&#039;Leisegang&#039;&#039;, Schlagabtausch zwischen Forschenden und EU-Parlament, Netzpolitik.org, 07.12.2023]&amp;lt;/ref&amp;gt; Als Kompromisslösung wurde daher in Art 45a Abs 2 eIDAS-VO klargestellt, dass Anbieter von Webbrowsern in Fällen begründeter Bedenken hinsichtlich Sicherheitsverletzungen oder eines Integritätsverlusts eines bestimmten Zertifikats oder eines Satzes von Zertifikaten Vorsorgemaßnahmen in Bezug auf dieses Zertifikat oder diesen Satz von Zertifikaten ergreifen können und die Kommission hielt in einer förmlichen Erklärung fest, dass Art 45 eIDAS-VO Anbietern von Webbrowsern keine Verpflichtungen und Einschränkungen hinsichtlich der Gewährleistung vertraulicher Online-Kommunikation auferlege.&amp;lt;ref&amp;gt;[https://netzpolitik.org/2024/eidas-reform-eu-parlament-stimmt-fuer-digitale-brieftasche/ &#039;&#039;Leisegang&#039;&#039;, EU-Parlament stimmt für digitale Brieftasche, Netzpolitik.org, 29.02.2024]&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://www.europarl.europa.eu/doceo/document/A-9-2023-0038-AM-007-007_EN.pdf Statement by the Commission on Article 45 on the occasion of the adoption of Regulation 2024/...]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Attributsbescheinigungen ====&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Archivierungsdienste ====&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Journale (electronic ledgers) ====&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
&lt;br /&gt;
* Wie oben dargestellt, enthält die eIDAS-VO zahlreiche Bestimmungen, um die Einhaltung der Datenschutzgrundsätze, insbesondere des Grundsatzes der Datenminimierung, in Bezug auf das EUDIW sicherzustellen. Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; [https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32016R0679 DSGVO (Datenschutz-Grundverordnung)] gilt. Die beiden Verordnungen stehen somit grundsätzlich nebeneinander. Eindeutig ist die Rechtslage dahingehend, dass die Durchführungsrechtsakte zur eIDAS-VO den Bestimmungen der DSGVO nicht widersprechen dürfen und dass vertrauende Beteiligte in ihrem Umgang mit den EUDIW-Nutzern und mit deren Daten nicht nur die Bestimmungen der eIDAS-VO, sondern auch die Bestimmungen der DSGVO einhalten müssen.&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;European Business Wallets&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Am 19. November 2025 veröffentlichte die Kommission einen Vorschlag für eine Verordnung über die Einrichtung europäischer Brieftaschen für Unternehmen (European Business Wallets).&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/library/proposal-regulation-establishment-european-business-wallets Europäische Kommission, Vorschlag für eine Verordnung über die Einrichtung europäischer Brieftaschen für Unternehmen]&amp;lt;/ref&amp;gt; Diese sollen technisch auf den EUDIW aufbauen&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/business-wallets Europäische Kommission, EU-Brieftaschen für Unternehmen]&amp;lt;/ref&amp;gt; und - sofern die Verordnung beschlossen wird -  Unternehmen in der EU die grenzüberschreitende Authentifizierung (insbesondere, aber nicht nur gegenüber Behörden) und den vertrauenswürdigen Austausch von Dokumenten ermöglichen und damit den Verwaltungsaufwand für Unternehmen reduzieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Weiterführende Links&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission&#039;&#039;, eIDAS Dashboard, https://eidas.ec.europa.eu/efda/discover/eu-trust-service-framework&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; EU Digital Identity Wallet Home, https://ec.europa.eu/digital-building-blocks/sites/spaces/EUDIGITALIDENTITYWALLET/pages/694487738/EU+Digital+Identity+Wallet+Home&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; European Digital Identity Wallet, https://eudi.dev/latest/&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; Architecture and Reference Framework, https://github.com/eu-digital-identity-wallet/eudi-doc-architecture-and-reference-framework&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=4370</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=4370"/>
		<updated>2025-12-03T22:38:43Z</updated>

		<summary type="html">&lt;p&gt;Walter: Umsetzungsstand&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Signaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Dies führte dazu, dass elektronische Identifizierungssysteme nicht in allen Mitgliedstaaten gleichermaßen zur Verfügung standen und ihre Verbreitung teilweise gering blieb, insbesondere in Bezug auf die Verwendung im privaten Sektor.&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/eudi-regulation Europäische Kommission, Verordnung über die europäische digitale Identität (EUDI)]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um diese Mängel zu beheben, wurde eine umfangreiche Novellierung der eIDAS-VO erarbeitet – bekannt als eIDAS 2.0 – die am 20. Mai 2024 in Kraft trat. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. Wegen ihrer hohen Anzahl kann hier &amp;lt;mark&amp;gt;nicht auf alle&amp;lt;/mark&amp;gt; näher eingegangen werden. &amp;lt;mark&amp;gt;Mit Stand November 2025 liegen wichtige Durchführungsverordnungen der Kommission bereits vor, insbesondere zur Ausgestaltung der EUDIW, siehe dazu [https://wiki.atlaws.eu/index.php/Regulation_on_electronic_identification_and_trust_services_(eIDAS)#Umsetzungsstand_und_Pilotprojekte_der_EUDIW unten], andere befinden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; In den Entwürfen zeichnete sich zuletzt eine Aufweichung der unten beschriebenen Datenschutz- und Datensicherheitsmaßnahmen des EUDIW ab, sodass diese Gegenstand intensiver politischer Diskussionen sind.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Identifizierung ===&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
==== European Digital Identity Wallet (EUDIW) ====&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
===== Funktionen der EUDIW =====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde zu erstatten, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss das Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
===== Datenschutz und Datensicherheit =====&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Insbesondere zu diesen Aspekten zeichnete sich zuletzt in der betreffenden Durchführungsverordnung eine Aufweichung ab, deren Zulässigkeit angesichts der soeben wiedergegeben Bestimmungen der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; Die Verabschiedung der finalen Durchführungsverordnung ist für das 1. Quartal 2025 angekündigt.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/14399-Brieftaschen-fur-die-europaische-digitale-Identitat-Registrierung-vertrauender-Beteiligter_de Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Brieftaschen für die europäische digitale Identität – Registrierung vertrauender Beteiligter]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
===== Annahmepflichten der EUDIW =====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Umsetzungsstand und Pilotprojekte der EUDIW&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
&amp;lt;mark&amp;gt;Zur Vorbereitung des Roll-outs der EUDIW koordiniert die Kommission über die sog. „Toolbox“ und das Architecture and Reference Framework (ARF) die technische Zusammenarbeit der Mitgliedstaaten. Das [https://github.com/eu-digital-identity-wallet/eudi-doc-architecture-and-reference-framework ARF] wird regelmäßig aktualisiert und dient als Referenzdokument für Wallet-Implementierungen, Schnittstellen und Sicherheitsanforderungen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;[https://eudi.dev/latest/ &#039;&#039;Europäische Kommission,&#039;&#039; European Digital Identity]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Parallel dazu laufen mehrere von der EU kofinanzierte „Large Scale Pilot“-Projekte, in deren Rahmen der Einsatz der EUDIW in verschiedenen grenzüberschreitenden Use Cases (zB E-Government, Führerschein, Bankkonteneröffnung) praktisch getestet wird.&amp;lt;ref&amp;gt;[https://ec.europa.eu/digital-building-blocks/sites/spaces/EUDIGITALIDENTITYWALLET/pages/694487808/What%2Bare%2Bthe%2BLarge%2BScale%2BPilot%2BProjects European Commission, What are the Large Scale Pilots]&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ====&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Vertrauensdienste ===&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Signaturen ====&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 eIDAS-VO als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Siegel ====&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Zeitstempel ====&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
==== Dienste für die Zustellung elektronischer Einschreiben ====&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
==== Website-Authentifizierung ====&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert und standardmäßig verwendet, erkennbar an der Präfix &amp;quot;https&amp;quot; in der URL-Zeile des Browsers und dem daneben angezeigten stilisierten Schloss. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte diesbezüglich jedoch eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://netzpolitik.org/2023/eidas-reform-schlagabtausch-zwischen-forschenden-und-eu-parlament/ &#039;&#039;Leisegang&#039;&#039;, Schlagabtausch zwischen Forschenden und EU-Parlament, Netzpolitik.org, 07.12.2023]&amp;lt;/ref&amp;gt; Als Kompromisslösung wurde daher in Art 45a Abs 2 eIDAS-VO klargestellt, dass Anbieter von Webbrowsern in Fällen begründeter Bedenken hinsichtlich Sicherheitsverletzungen oder eines Integritätsverlusts eines bestimmten Zertifikats oder eines Satzes von Zertifikaten Vorsorgemaßnahmen in Bezug auf dieses Zertifikat oder diesen Satz von Zertifikaten ergreifen können und die Kommission hielt in einer förmlichen Erklärung fest, dass Art 45 eIDAS-VO Anbietern von Webbrowsern keine Verpflichtungen und Einschränkungen hinsichtlich der Gewährleistung vertraulicher Online-Kommunikation auferlege.&amp;lt;ref&amp;gt;[https://netzpolitik.org/2024/eidas-reform-eu-parlament-stimmt-fuer-digitale-brieftasche/ &#039;&#039;Leisegang&#039;&#039;, EU-Parlament stimmt für digitale Brieftasche, Netzpolitik.org, 29.02.2024]&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://www.europarl.europa.eu/doceo/document/A-9-2023-0038-AM-007-007_EN.pdf Statement by the Commission on Article 45 on the occasion of the adoption of Regulation 2024/...]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Attributsbescheinigungen ====&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Archivierungsdienste ====&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Journale (electronic ledgers) ====&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
&lt;br /&gt;
* Wie oben dargestellt, enthält die eIDAS-VO zahlreiche Bestimmungen, um die Einhaltung der Datenschutzgrundsätze, insbesondere des Grundsatzes der Datenminimierung, in Bezug auf das EUDIW sicherzustellen. Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; [https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32016R0679 DSGVO (Datenschutz-Grundverordnung)] gilt. Die beiden Verordnungen stehen somit grundsätzlich nebeneinander. Eindeutig ist die Rechtslage dahingehend, dass die Durchführungsrechtsakte zur eIDAS-VO den Bestimmungen der DSGVO nicht widersprechen dürfen und dass vertrauende Beteiligte in ihrem Umgang mit den EUDIW-Nutzern und mit deren Daten nicht nur die Bestimmungen der eIDAS-VO, sondern auch die Bestimmungen der DSGVO einhalten müssen.&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;European Business Wallets&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Am 19. November 2025 veröffentlichte die Kommission einen Vorschlag für eine Verordnung über die Einrichtung europäischer Brieftaschen für Unternehmen (European Business Wallets).&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/library/proposal-regulation-establishment-european-business-wallets Europäische Kommission, Vorschlag für eine Verordnung über die Einrichtung europäischer Brieftaschen für Unternehmen]&amp;lt;/ref&amp;gt; Diese sollen technisch auf den EUDIW aufbauen&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/business-wallets Europäische Kommission, EU-Brieftaschen für Unternehmen]&amp;lt;/ref&amp;gt; und - sofern die Verordnung beschlossen wird -  Unternehmen in der EU die grenzüberschreitende Authentifizierung (insbesondere, aber nicht nur gegenüber Behörden) und den vertrauenswürdigen Austausch von Dokumenten ermöglichen und damit den Verwaltungsaufwand für Unternehmen reduzieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Weiterführende Links&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission&#039;&#039;, eIDAS Dashboard, https://eidas.ec.europa.eu/efda/discover/eu-trust-service-framework&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; EU Digital Identity Wallet Home, https://ec.europa.eu/digital-building-blocks/sites/spaces/EUDIGITALIDENTITYWALLET/pages/694487738/EU+Digital+Identity+Wallet+Home&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; European Digital Identity, https://eudi.dev/latest/&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; Architecture and Reference Framework, https://github.com/eu-digital-identity-wallet/eudi-doc-architecture-and-reference-framework&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=4369</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=4369"/>
		<updated>2025-12-03T22:30:39Z</updated>

		<summary type="html">&lt;p&gt;Walter: Umsetzung und aktueller Stand&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Signaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Dies führte dazu, dass elektronische Identifizierungssysteme nicht in allen Mitgliedstaaten gleichermaßen zur Verfügung standen und ihre Verbreitung teilweise gering blieb, insbesondere in Bezug auf die Verwendung im privaten Sektor.&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/eudi-regulation Europäische Kommission, Verordnung über die europäische digitale Identität (EUDI)]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um diese Mängel zu beheben, wurde eine umfangreiche Novellierung der eIDAS-VO erarbeitet – bekannt als eIDAS 2.0 – die am 20. Mai 2024 in Kraft trat. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Wegen ihrer hohen Anzahl kann hier &amp;lt;mark&amp;gt;nicht auf alle&amp;lt;/mark&amp;gt; näher eingegangen werden, &amp;lt;mark&amp;gt;insbesondere wenn diese noch nicht veröffentlicht wurden&amp;lt;/mark&amp;gt;. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. &amp;lt;mark&amp;gt;Mit Stand November 2025 liegen wichtige Durchführungsverordnungen der Kommission bereits vor, insbesondere zur Ausgestaltung der EUDIW, andere befinden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; In den Entwürfen zeichnete sich zuletzt eine Aufweichung der unten beschriebenen Datenschutz- und Datensicherheitsmaßnahmen des EUDIW ab, sodass diese Gegenstand intensiver politischer Diskussionen sind.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Identifizierung ===&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
==== European Digital Identity Wallet (EUDIW) ====&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
===== Funktionen der EUDIW =====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde zu erstatten, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss das Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
===== Datenschutz und Datensicherheit =====&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Insbesondere zu diesen Aspekten zeichnete sich zuletzt in der betreffenden Durchführungsverordnung eine Aufweichung ab, deren Zulässigkeit angesichts der soeben wiedergegeben Bestimmungen der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; Die Verabschiedung der finalen Durchführungsverordnung ist für das 1. Quartal 2025 angekündigt.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/14399-Brieftaschen-fur-die-europaische-digitale-Identitat-Registrierung-vertrauender-Beteiligter_de Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Brieftaschen für die europäische digitale Identität – Registrierung vertrauender Beteiligter]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
===== Annahmepflichten der EUDIW =====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Umsetzungsstand und Pilotprojekte der EUDIW&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
&amp;lt;mark&amp;gt;Zur Vorbereitung des Roll-outs der EUDIW koordiniert die Kommission über die sog. „Toolbox“ und das Architecture and Reference Framework (ARF) die technische Zusammenarbeit der Mitgliedstaaten. Das [https://eudi.dev/latest/ ARF] wird regelmäßig aktualisiert und dient als Referenzdokument für Wallet-Implementierungen, Schnittstellen und Sicherheitsanforderungen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Parallel dazu laufen mehrere von der EU kofinanzierte „Large Scale Pilot“-Projekte, in deren Rahmen der Einsatz der EUDIW in verschiedenen grenzüberschreitenden Use Cases (zB E-Government, Führerschein, Bankkonteneröffnung) praktisch getestet wird.&amp;lt;ref&amp;gt;[https://ec.europa.eu/digital-building-blocks/sites/spaces/EUDIGITALIDENTITYWALLET/pages/694487808/What%2Bare%2Bthe%2BLarge%2BScale%2BPilot%2BProjects European Commission, What are the Large Scale Pilots]&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ====&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Vertrauensdienste ===&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Signaturen ====&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 eIDAS-VO als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Siegel ====&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Zeitstempel ====&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
==== Dienste für die Zustellung elektronischer Einschreiben ====&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
==== Website-Authentifizierung ====&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert und standardmäßig verwendet, erkennbar an der Präfix &amp;quot;https&amp;quot; in der URL-Zeile des Browsers und dem daneben angezeigten stilisierten Schloss. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte diesbezüglich jedoch eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://netzpolitik.org/2023/eidas-reform-schlagabtausch-zwischen-forschenden-und-eu-parlament/ &#039;&#039;Leisegang&#039;&#039;, Schlagabtausch zwischen Forschenden und EU-Parlament, Netzpolitik.org, 07.12.2023]&amp;lt;/ref&amp;gt; Als Kompromisslösung wurde daher in Art 45a Abs 2 eIDAS-VO klargestellt, dass Anbieter von Webbrowsern in Fällen begründeter Bedenken hinsichtlich Sicherheitsverletzungen oder eines Integritätsverlusts eines bestimmten Zertifikats oder eines Satzes von Zertifikaten Vorsorgemaßnahmen in Bezug auf dieses Zertifikat oder diesen Satz von Zertifikaten ergreifen können und die Kommission hielt in einer förmlichen Erklärung fest, dass Art 45 eIDAS-VO Anbietern von Webbrowsern keine Verpflichtungen und Einschränkungen hinsichtlich der Gewährleistung vertraulicher Online-Kommunikation auferlege.&amp;lt;ref&amp;gt;[https://netzpolitik.org/2024/eidas-reform-eu-parlament-stimmt-fuer-digitale-brieftasche/ &#039;&#039;Leisegang&#039;&#039;, EU-Parlament stimmt für digitale Brieftasche, Netzpolitik.org, 29.02.2024]&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://www.europarl.europa.eu/doceo/document/A-9-2023-0038-AM-007-007_EN.pdf Statement by the Commission on Article 45 on the occasion of the adoption of Regulation 2024/...]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Attributsbescheinigungen ====&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Archivierungsdienste ====&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Journale (electronic ledgers) ====&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
&lt;br /&gt;
* Wie oben dargestellt, enthält die eIDAS-VO zahlreiche Bestimmungen, um die Einhaltung der Datenschutzgrundsätze, insbesondere des Grundsatzes der Datenminimierung, in Bezug auf das EUDIW sicherzustellen. Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; [https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32016R0679 DSGVO (Datenschutz-Grundverordnung)] gilt. Die beiden Verordnungen stehen somit grundsätzlich nebeneinander. Eindeutig ist die Rechtslage dahingehend, dass die Durchführungsrechtsakte zur eIDAS-VO den Bestimmungen der DSGVO nicht widersprechen dürfen und dass vertrauende Beteiligte in ihrem Umgang mit den EUDIW-Nutzern und mit deren Daten nicht nur die Bestimmungen der eIDAS-VO, sondern auch die Bestimmungen der DSGVO einhalten müssen.&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;European Business Wallets&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Am 19. November 2025 veröffentlichte die Kommission einen Vorschlag für eine Verordnung über die Einrichtung europäischer Brieftaschen für Unternehmen (European Business Wallets).&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/library/proposal-regulation-establishment-european-business-wallets Europäische Kommission, Vorschlag für eine Verordnung über die Einrichtung europäischer Brieftaschen für Unternehmen]&amp;lt;/ref&amp;gt; Diese sollen technisch auf den EUDIW aufbauen&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/business-wallets Europäische Kommission, EU-Brieftaschen für Unternehmen]&amp;lt;/ref&amp;gt; und - sofern die Verordnung beschlossen wird -  Unternehmen in der EU die grenzüberschreitende Authentifizierung (insbesondere, aber nicht nur gegenüber Behörden) und den vertrauenswürdigen Austausch von Dokumenten ermöglichen und damit den Verwaltungsaufwand für Unternehmen reduzieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Weiterführende Links&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission&#039;&#039;, eIDAS Dashboard, https://eidas.ec.europa.eu/efda/discover/eu-trust-service-framework&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; EU Digital Identity Wallet Home, https://ec.europa.eu/digital-building-blocks/sites/spaces/EUDIGITALIDENTITYWALLET/pages/694487738/EU+Digital+Identity+Wallet+Home&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; European Digital Identity, https://eudi.dev/latest/&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; Architecture and Reference Framework, https://github.com/eu-digital-identity-wallet/eudi-doc-architecture-and-reference-framework&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=4365</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=4365"/>
		<updated>2025-12-02T21:21:55Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Einführung */ Verhältnis zu anderen Rechtsakten: European Business Wallets&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Signaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Dies führte dazu, dass elektronische Identifizierungssysteme nicht in allen Mitgliedstaaten gleichermaßen zur Verfügung standen und ihre Verbreitung teilweise gering blieb, insbesondere in Bezug auf die Verwendung im privaten Sektor.&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/eudi-regulation Europäische Kommission, Verordnung über die europäische digitale Identität (EUDI)]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um diese Mängel zu beheben, wurde eine umfangreiche Novellierung der eIDAS-VO erarbeitet – bekannt als eIDAS 2.0 – die am 20. Mai 2024 in Kraft trat. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Wegen ihrer hohen Anzahl kann hier &amp;lt;mark&amp;gt;nicht auf alle&amp;lt;/mark&amp;gt; näher eingegangen werden, &amp;lt;mark&amp;gt;insbesondere wenn diese noch nicht veröffentlicht wurden&amp;lt;/mark&amp;gt;. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. &amp;lt;mark&amp;gt;Mit Stand November 2025 liegen wichtige Durchführungsverordnungen der Kommission bereits vor, insbesondere zur Ausgestaltung der EUDIW, andere befinden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; In den Entwürfen zeichnete sich zuletzt eine Aufweichung der unten beschriebenen Datenschutz- und Datensicherheitsmaßnahmen des EUDIW ab, sodass diese Gegenstand intensiver politischer Diskussionen sind.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Identifizierung ===&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
==== European Digital Identity Wallet (EUDIW) ====&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
===== Funktionen der EUDIW =====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde zu erstatten, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss das Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
===== Datenschutz und Datensicherheit =====&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Insbesondere zu diesen Aspekten zeichnete sich zuletzt in der betreffenden Durchführungsverordnung eine Aufweichung ab, deren Zulässigkeit angesichts der soeben wiedergegeben Bestimmungen der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; Die Verabschiedung der finalen Durchführungsverordnung ist für das 1. Quartal 2025 angekündigt.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/14399-Brieftaschen-fur-die-europaische-digitale-Identitat-Registrierung-vertrauender-Beteiligter_de Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Brieftaschen für die europäische digitale Identität – Registrierung vertrauender Beteiligter]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
===== Annahmepflichten der EUDIW =====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
==== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ====&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Vertrauensdienste ===&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Signaturen ====&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 eIDAS-VO als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Siegel ====&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Zeitstempel ====&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
==== Dienste für die Zustellung elektronischer Einschreiben ====&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
==== Website-Authentifizierung ====&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert und standardmäßig verwendet, erkennbar an der Präfix &amp;quot;https&amp;quot; in der URL-Zeile des Browsers und dem daneben angezeigten stilisierten Schloss. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte diesbezüglich jedoch eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://netzpolitik.org/2023/eidas-reform-schlagabtausch-zwischen-forschenden-und-eu-parlament/ &#039;&#039;Leisegang&#039;&#039;, Schlagabtausch zwischen Forschenden und EU-Parlament, Netzpolitik.org, 07.12.2023]&amp;lt;/ref&amp;gt; Als Kompromisslösung wurde daher in Art 45a Abs 2 eIDAS-VO klargestellt, dass Anbieter von Webbrowsern in Fällen begründeter Bedenken hinsichtlich Sicherheitsverletzungen oder eines Integritätsverlusts eines bestimmten Zertifikats oder eines Satzes von Zertifikaten Vorsorgemaßnahmen in Bezug auf dieses Zertifikat oder diesen Satz von Zertifikaten ergreifen können und die Kommission hielt in einer förmlichen Erklärung fest, dass Art 45 eIDAS-VO Anbietern von Webbrowsern keine Verpflichtungen und Einschränkungen hinsichtlich der Gewährleistung vertraulicher Online-Kommunikation auferlege.&amp;lt;ref&amp;gt;[https://netzpolitik.org/2024/eidas-reform-eu-parlament-stimmt-fuer-digitale-brieftasche/ &#039;&#039;Leisegang&#039;&#039;, EU-Parlament stimmt für digitale Brieftasche, Netzpolitik.org, 29.02.2024]&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://www.europarl.europa.eu/doceo/document/A-9-2023-0038-AM-007-007_EN.pdf Statement by the Commission on Article 45 on the occasion of the adoption of Regulation 2024/...]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Attributsbescheinigungen ====&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Archivierungsdienste ====&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
==== Elektronische Journale (electronic ledgers) ====&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
&lt;br /&gt;
* Wie oben dargestellt, enthält die eIDAS-VO zahlreiche Bestimmungen, um die Einhaltung der Datenschutzgrundsätze, insbesondere des Grundsatzes der Datenminimierung, in Bezug auf das EUDIW sicherzustellen. Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; [https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32016R0679 DSGVO (Datenschutz-Grundverordnung)] gilt. Die beiden Verordnungen stehen somit grundsätzlich nebeneinander. Eindeutig ist die Rechtslage dahingehend, dass die Durchführungsrechtsakte zur eIDAS-VO den Bestimmungen der DSGVO nicht widersprechen dürfen und dass vertrauende Beteiligte in ihrem Umgang mit den EUDIW-Nutzern und mit deren Daten nicht nur die Bestimmungen der eIDAS-VO, sondern auch die Bestimmungen der DSGVO einhalten müssen.&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;European Business Wallets&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Am 19. November 2025 veröffentlichte die Kommission einen Vorschlag für eine Verordnung über die Einrichtung europäischer Brieftaschen für Unternehmen (European Business Wallets).&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/library/proposal-regulation-establishment-european-business-wallets Europäische Kommission, Vorschlag für eine Verordnung über die Einrichtung europäischer Brieftaschen für Unternehmen]&amp;lt;/ref&amp;gt; Diese sollen technisch auf den EUDIW aufbauen&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/business-wallets Europäische Kommission, EU-Brieftaschen für Unternehmen]&amp;lt;/ref&amp;gt; und - sofern die Verordnung beschlossen wird -  Unternehmen in der EU die grenzüberschreitende Authentifizierung (insbesondere, aber nicht nur gegenüber Behörden) und den vertrauenswürdigen Austausch von Dokumenten ermöglichen und damit den Verwaltungsaufwand für Unternehmen reduzieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4348</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4348"/>
		<updated>2025-11-28T12:13:54Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) */ Kapitel Sicherheit des GPAI CoP&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. Februar 2025 (schrittweise)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen von KI-Systemen &lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD, &amp;lt;mark&amp;gt;von der Kommission zurückgezogen&amp;lt;/mark&amp;gt;)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modelle (general purpose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB Verarbeitung zur Vermeidung von Verzerrungen, Art 10), regulatory sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (zB Anbieter- und Betreiberpflichten, Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz (eingeschränkt); reine Forschungszwecke &lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) gelten seit 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (zB Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|Gewährleistung von Transparenz und Verantwortlichkeit&lt;br /&gt;
|Pflichten für Betreiber (professionelle Nutzer*innen) und Anbieter&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (zB Chatbots, Deepfakes)&lt;br /&gt;
|Informationspflichten nach der DSGVO&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
&amp;lt;mark&amp;gt;Der AI Act ist die erste EU-weite, sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) und&amp;lt;/mark&amp;gt; folgt dabei primär einem produktsicherheitsrechtlichem Ansatz, dessen vorrangiges Regulierungsziel die Sicherheit von KI-Systemen und Modellen ist. &amp;lt;mark&amp;gt;Damit ist er Teil des sog [https://single-market-economy.ec.europa.eu/single-market/goods/new-legislative-framework_en?prefLang=de &amp;quot;New Legislative Framework&amp;quot;] (NLF), einem unionsrechtlichen Maßnahmenpaket zur Produktregulierung, das auf die Verbesserung der Marktüberwachung abzielt und sich durch einheitliche Kernelemente auszeichnet (zB Konformitätsbewertungsverfahren, Selbstregulierung, Standards und einheitliche Anforderungen). Im Rahmen des Gesetzgebungsprozesses wurde der Rechtsakt - insbesondere auf Bestreben des Europäischen Parlaments - um menschenrechtliche Aspekte und Betroffenenrechte erweitert, weshalb der AI Act mittlerweile deutlich über reines Produktsicherheitsrecht hinausgeht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modelle&#039;&#039;&#039; bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot;.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei handelt es sich um &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;ableitet&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot;&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe Art 3 Z 1 AI Act. Hervorhebungen nicht im Original. &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;abzuleiten&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Hingegen soll sich nach ErwGr 12 der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen [...]&amp;quot;, womit auf eine Abgrenzung von KI von herkömmlichen Softwarelösungen und Programmierungsansätzen abgezielt wird.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zusammenfassend möchte der EU-Gesetzgeber mit dieser Definition einerseits Rechtssicherheit schaffen, allerdings immer noch Raum für technologischen Fortschritt lassen, um den Anwendungsbereich des AI Act nicht von Vornherein vor potenziellen künftigen technologischen Entwicklungen zu verschließen.&amp;lt;/mark&amp;gt; Dennoch wurde die Definition als zu vage und unbestimmt empfunden. So wurden diverse Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Um den Begriff des KI-Systems also zu konkretisieren und Unsicherheiten zu beseitigen, sollte die Kommission gemäß Art 96 Abs 1 lit f AI Act Leitlinien vorlegen, und damit eine einheitliche Anwendung des Regelwerks fördern sowie Rechtsicherheit gewährleisten&amp;lt;/mark&amp;gt;.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle, &amp;lt;mark&amp;gt;einfache Datenverarbeitungssysteme, auf klassische Heuristik gestützte Systeme, einfache Vorhersagesysteme etc.&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Eine Positiv-Liste, welche Systeme jedenfalls unter den KI-Begriff fallen, enthalten die Leitlinien allerdings nicht. Sie orientieren sich vielmehr an den 7 Kernelementen der KI-Definition gemäß Art 3 Z 1 AI Act. Es wird überdies betont, dass nicht alle Elemente kontinuierlich in den beiden Hauptphasen des Lebenszyklus von KI (&amp;quot;building phase&amp;quot; / &amp;quot;pre-deployment&amp;quot; oder &amp;quot;use phase&amp;quot; / &amp;quot;post-deployment&amp;quot;) vorhanden sein müssen und, dass sich die Leitlinien kontinuierlich weiterentwickeln sollen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Folgende Konkretisierungen der KI-Definition und Beispiele sind den Leitlinien zu entnehmen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Elemente der KI-Definition&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Erläuterungen in den Leitlinien der EU-Kommission&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Maschinengestütztes System&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;KI benötigt Hardware- und Softwarekomponenten&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB eine Hardwareinfrastruktur wie processing units, Speicher, Input/Output-Schnittstellen und Software (Code, Programme etc.)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;autonomer Betrieb (in unterschiedlichem Grade)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erfordert einen gewissen Grad an Unabhängigkeit von menschlichem Eingreifen, wobei Systeme, die vollständig manuelle menschliche Interaktion erfordern, nicht darunter fallen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Umfasst sind Systeme, die zwar einen manuellen Input erfordern, aber von selbst einen Output generieren (zB Chatbots)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anpassungsfähigkeit nach Betriebsaufnahme (optional)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Selbstlernfähigkeiten (nicht zwingend erforderlich); darunter versteht man, ob sich das Verhalten des Systems während seiner Verwendung anpassen oder verändern kann (zB automatisches Lernen, wie Muster oder Beziehungen zwischen Daten erkannt werden können).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungsfähigkeit&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Inferenz, Schlüsseleigenschaft; dient der Abgrenzung von KI-Systemen von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen. Nicht umfasst sind hingegen Systeme, die nur von Menschen programmierten Regeln folgen und automatisiert Operationen ausführen. Die Ableitungsfähigkeit bedeutet daher die Erlernung allgemeiner Konzepte statt fester, vorprogrammierter Regeln.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Bsp: maschinelles Lernen, logik- und wissensgestützte Systeme (Schlussfolgerungen mittels Deduktion oder Induktion)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitung aus Eingaben für implizite oder explizite Ziele&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungen müssen nach entweder:&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;expliziten Zielen (klar definierte, direkt in den Code programmierte Ziele, Optimierung von Kostenfunktionen, Wahrscheinlichkeitsberechnung) oder&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;impliziten Zielen (Ableitung des Ziels aus dem Verhalten oder den dahinterstehenden Annahmen des Systems; bspw Trainingsdaten oder Interaktion des Systems mit Umwelt) erfolgen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erzeugung von Ausgaben&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ausgabe-Arten umfassen unter anderem&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Vorhersagen (Schätzungen unbekannter Werte basierend auf komplexen Datenmustern)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Inhalte (Texte, Bilder, Videos oder Musik)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Empfehlungen (Vorschläge für Maßnahmen, Produkte oder Dienstleistungen, die hochgradig personalisiert sind und Massendaten nutzen).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Entscheidungen (Vollautomatisierte Schlussfolgerungen oder Auswahlentscheidungen, die Prozesse automatisieren, die üblicherweise menschlichem Urteilsvermögen vorbehalten sind)&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;zB die generierten Inhalte von Chatbots, Produktvorschläge, Echtzeit-Vorhersagen, Auswahlentscheidungen&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Beeinflussung physischer oder virtueller Umgebungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Frage, ob das System einen aktiven Einfluss auf die Umgebungen hat, in denen es eingesetzt wird, sei es auf materielle physische Objekte oder auf digitale Räume&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB Roboterarm, Software-Ökosysteme, Datenströme&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}  &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI-Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit aus, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). &amp;lt;mark&amp;gt;Man kann hier den Vergleich zu einem KFZ ziehen, wobei das KI-Modell den Motor darstellt, der die eigentliche &amp;quot;Arbeit&amp;quot; leistet. Um jedoch fahrtüchtig zu sein, bedarf es nicht nur eines Motors, sondern das Fahrzeug benötigt darüber hinaus eine Karosserie, Räder, ein Lenkrad etc. Das wiederum bezeichnet das KI-System, welches das Modell erst durch seine Schnittstellen, seine Benutzeroberfläche etc. &amp;quot;fahrtüchtig&amp;quot; und damit nutzbar macht.&amp;lt;/mark&amp;gt; Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen &amp;quot;Nutzer&amp;quot;) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder sich in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollen:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität), unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act trat am &#039;&#039;&#039;1. August 2024&#039;&#039;&#039; in Kraft und wird generell am &#039;&#039;&#039;2. August 2026&#039;&#039;&#039; anwendbar (Art 113 AI Act). Gestaffelt erlangen einige Bestimmungen jedoch bereits vorab oder danach Geltung:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab &#039;&#039;&#039;2. August 2025&#039;&#039;&#039;&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem &#039;&#039;&#039;2. August 2027&#039;&#039;&#039;&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 111 Abs 2 AI Act enthält dabei jedoch eine sog „grandfathering“-Klausel, nach welcher der AI Act für Betreiber von Hochrisiko-KI-Systemen, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, nur dann gilt, wenn diese Systeme danach in ihrer Konzeption erheblich verändert wurden.&amp;lt;ref&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 23, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Verpflichtung zur Maßnahmenergreifung gilt für Betreiber und Anbieter gleichermaßen und ist ferner unabhängig von der Risikoklasse der infragestehenden KI-Anwendung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Unter KI-Kompetenz versteht man grundsätzlich &amp;quot;die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.&amp;quot;&amp;lt;ref&amp;gt;Vgl die Definition in Art 3 Z 56 AI Act.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dies umfasst die notwendigen Kompetenzen, um fundierte Entscheidungen über KI-Systeme zu treffen, technische Elemente zu verstehen sowie korrekt anzuwenden, die Auswirkungen von KI-basierten Entscheidungen auf Betroffene zu verstehen und KI-generierte Ausgaben angemessen zu interpretieren.&amp;lt;ref name=&amp;quot;:1&amp;quot;&amp;gt;Vgl ErwGr 20 AI Act. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dazu gehört auch, den einschlägigen Akteuren der KI-Wertschöpfungskette jene erforderlichen Kenntnisse zu vermitteln, um die Einhaltung und Durchsetzung der Vorschriften des AI Act zu gewährleisten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Weitere Konkretisierungen oder zwingende Mindestvorgaben für die Sicherstellung der KI-Kompetenz enthält der AI Act allerdings nicht und betont sogar, dass die Konzepte der KI-Kompetenz in Bezug auf den jeweiligen Kontext unterschiedlich sein können.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:1&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Die EU-Kommission hat daher ein [https://digital-strategy.ec.europa.eu/de/library/living-repository-foster-learning-and-exchange-ai-literacy &amp;quot;Living Repository&amp;quot;] angelegt, in dem Unternehmen ihre Praktiken in Bezug auf KI-Kompetenz eingetragen haben. Das Repository wird laufend ergänzt, ist jedoch nicht rechtsverbindlich. Weiters bilden die darin enthaltenen Praktiken keine Garantie zur Compliance mit Art 4 AI Act, allerdings stellen sie eine gute Orientierung dar, welche Maßnahmen zur Sicherstellung von KI-Kompetenz in unterschiedlichen Branchen bereits ergriffen werden. Häufig genannte Praktiken umfassen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne eLearning-Plattformen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne Weiterbildungen und Trainingsprogramme,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Kenntnis-basierte Schulungen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Video-/Podcast-Reihen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;spielebasierte Trainings,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Erstellung von KI-Verhaltenskodizes und Risikobewertungssystemen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;eigene Chatbots zum Training im Umgang mit Sprachmodellen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Denkbar ist überdies die Teilnahme an externen Fortbildungen und Schulungen, die Entwicklung von internen Richtlinien (&amp;quot;KI-Guidelines&amp;quot;) oder die Schaffung von sog &amp;quot;KI-Beauftragten&amp;quot; in der Organisation. Ob die Schulungsmaßnahmen fortlaufend zu erfolgen haben, ist rechtlich nicht vorgeschrieben, wird allerdings anzunehmen sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Dieser Ansicht folgend: &#039;&#039;Siglmüller&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 4 KI-Kompetenz Rz 5.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Ebensowenig sind die genauen Inhalte der Kompetenzvermittlungsmaßnahmen definiert. Es kann jedenfalls davon ausgegangen werden, dass diese zielgruppengerecht und zugeschnitten auf unterschiedliche Bedürfnisse erfolgen sollten. Weiters werden sie sich bei manchen Branchen, KI-Einsatzgebieten oder Personengruppen nicht lediglich auf rechtliche oder technische Anforderungen beschränken, sondern ebenso soziale und ethische Komponenten umfassen. Bei der Entwicklung und Nutzung von GPAI-Modellen wird beispielsweise die Vermittlung von Kenntnissen im Zusammenhang mit Urheberrecht, Datenschutz, &amp;quot;Bias&amp;quot; (Verzerrungen) oder &amp;quot;Halluzinationen&amp;quot; (erfundene falsche Ausgaben) sinnvoll sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger,&#039;&#039; Wissenskultur im KI-Zeitalter – eine Auseinandersetzung mit der KI-Kompetenz nach Art 4 AI Act und ihren praktischen Implikationen, ZIIR 2025, 250.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die EU-Kommission hat darüber hinaus eine [https://digital-strategy.ec.europa.eu/de/faqs/ai-literacy-questions-answers &amp;quot;FAQ-Seite&amp;quot;] mit Fragen und Antworten zur KI-Kompetenz angelegt, um einen besseren Überblick über die Anforderungen zu geben.&amp;lt;/mark&amp;gt;    &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten, &amp;lt;mark&amp;gt;da sie besonders schädlich sind, enormes Missbrauchspotenzial aufweisen und im Widerspruch zu europäischen Grundrechten und Grundfreiheiten stehen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 28 AI Act.&amp;lt;/mark&amp;gt; MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt; (Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt; Folgende Praktiken sind davon umfasst: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Praktik&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Nicht erfasste Praktiken&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsgrundlage&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Unterschwellige Beeinflussung außerhalb des Bewusstseins oder manipulative/täuschende Techniken&#039;&#039;&#039;, wodurch die freie Entscheidungsfähigkeit von Personen beeinträchtigt wird und ein Schaden mit hinreichender Wahrscheinlichkeit eintritt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ableitung sensibler Informationen aus Gehirnen von Nutzern über Maschine-Gehirn-Schnittstellen&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 29 AI Act sowie Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 66.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Chatbots, die zur Selbstverletzung verleiten&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 87.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Unterschwellige visuelle oder auditive Reize bzw generelle sensorische Manipulation&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 65 und 68.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erlaubt ist hingegen der Einsatz eines KI-Systems, das personalisierte Empfehlungen auf der Grundlage transparenter Algorithmen und Nutzerpräferenzen verwendet, und sich nicht absichtlich manipulativer Techniken bedient.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 128.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit a&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Ausnutzen der Vulnerabilität/Schutzbedürftigkeit&#039;&#039;&#039; aufgrund des Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine KI-Begleit-App, die durch gewisse Sprachmuster und Verhaltensweisen gezielt emotionale Abhängigkeiten und ungesunde Bindungen bei älteren Menschen erzeugt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-gestütztes Spielzeug, das Kinder zu riskanten Herausforderungen ermutigt oder durch süchtig machende Techniken zu übermäßigem Spielen anregt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte &amp;quot;Grooming-Praktiken&amp;quot; (gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht), um Mädchen mit Behinderung im Internet anzusprechen und zu manipulieren&amp;lt;ref&amp;gt;Vgl Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 88 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Kinder beim Lernen einer Fremdsprache durch den Einsatz unterschwelliger Techniken unterstützen soll, sofern sie transparent arbeitet und die Nutzerautonomie wahrt.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Benommenheit und Ermüdung bei Fahrern erkennen und sie im Einklang mit den Sicherheitsvorschriften mit Warnmeldungen auf Ruhepausen hinweisen, gelten ebenso nicht als Ausnutzung von Vulnerabilitäten.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 130ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit b&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social scoring&#039;&#039;&#039; (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Verwendung eines KI-Systems zur Schätzung der Betrugswahrscheinlichkeit bei Empfängern von Haushaltszulagen durch das Sozialamt, das sich auf Merkmale stützt, die in sozialen Kontexten ohne offensichtlichen Zusammenhang mit oder Relevanz für die Bewertung von Betrug erhoben oder abgeleitet werden, wie zB ein Ehepartner mit einer bestimmten Staatsangehörigkeit oder ethnischen Herkunft, der Besitz eines Internetanschlusses, das Verhalten auf sozialen Plattformen oder die Leistung am Arbeitsplatz etc.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems durch eine öffentliche Stelle, um für die Früherkennung gefährdeter Kinder anhand von Kriterien wie der psychischen Gesundheit und Arbeitslosigkeit der Eltern, aber auch anhand von aus verschiedenen Kontexten abgeleiteten Informationen über das soziale Verhalten der Eltern Familienprofile zu erstellen. Auf der Grundlage der erzielten Bewertung werden Familien für Kontrollen ausgewählt und als „gefährdet“ geltende Kinder werden aus ihren Familien genommen, unter anderem auch in Fällen geringfügiger Übertretungen seitens der Eltern, wie zB gelegentlich verpasste Arzttermine oder verhängte Verkehrsstrafen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine Regierung führt ein umfassendes KI-gestütztes System ein, das die Bürgerinnen und Bürger auf der Grundlage ihres Verhaltens in verschiedenen Lebensbereichen wie sozialen Interaktionen, Online-Aktivitäten, Kaufgewohnheiten und Pünktlichkeit bei der Begleichung von Rechnungen überwacht und einstuft. Menschen mit einer niedrigeren Bewertung müssen damit rechnen, dass sie eingeschränkten Zugang zu öffentlichen Dienstleistungen erhalten, höhere Zinsen auf Kredite zahlen und auf Reisen und bei der Suche nach einer Wohnung oder sogar einem Arbeitsplatz Schwierigkeiten haben.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 166 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Bonitätsprüfung natürlicher Personen auf Basis persönlicher Merkmale wie dem Einkommen vor Vergabe eines Kredits.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basierte Erhebung von Geschwindigkeitsüberschreitungen oder hochriskantem Fahrverhalten, die zur Erhöhung der KFZ-Versicherungsprämien führen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte gezielte kommerzielle Werbung fällt nicht in den Anwendungsbereich, wenn sie auf relevanten Daten (z. B. Nutzerpräferenzen) beruht, im Einklang mit den Rechtsvorschriften der Union über Verbraucherschutz, Datenschutz und digitale Dienste erfolgt und nicht zu einer Schlechterstellung oder Benachteiligung führt, die in keinem angemessenen Verhältnis zur Tragweite des sozialen Verhaltens des Nutzers steht (z. B. ausbeuterische und unfaire differenzierte Preisgestaltung).&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 177.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit c&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Bewertung des Risikos, dass eine Person eine Straftat&#039;&#039;&#039; begeht (ausschließlich aufgrund von Profiling)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Eine Polizeidienststelle verwendet KI-gestützte Risikobewertungsinstrumente, um das Risiko zu bewerten, dass kleine Kinder und Jugendliche an „künftigen Gewalttaten und Eigentumsdelikten“ beteiligt sein werden. Das System bewertet Kinder auf der Grundlage ihrer Beziehungen zu anderen Menschen und deren vermeintlichen Risikoniveaus, dh es wird eventuell davon ausgegangen, dass bei Kindern ein höheres Risiko für die Begehung von Straftaten besteht, einfach weil sie mit einer anderen Person wie einem Geschwisterkind oder einem Freund verbunden sind, bei der eine hohe Risikobewertung vorliegt. Das Risikoniveau der Eltern kann sich ebenfalls auf das Risikoniveau eines Kindes auswirken.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 202.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Standortbezogene oder geodatenbasierte Vorhersagen oder ortsbezogene Verbrechensvorhersagen (zB KI-System zur Berechnung der Kriminalitätswahrscheinlichkeit in bestimmten Stadtgebieten oder von Schmuggelrouten)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Unterstützung der durch Menschen durchgeführten Bewertung, die sich auf objektive und überprüfbare Tatsachen stützt, die in Zusammenhang mit einer kriminellen Aktivität stehen (zB Profiling zur Vorhersage gefährlichen Verhaltens in einer Menschenmenge, KI-basiertes Profiling von Personen, gegen die bereits ein Verdacht besteht, der auf mehreren überprüfbaren, objektiven Tatsachen beruht).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basiertes Profiling in Bezug auf juristische Personen&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur individuellen Vorhersage von Ordnungswidrigkeiten (zB Bagatellverkehrsdelikte)&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 212 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit d&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erstellung/Erweiterung von &#039;&#039;&#039;Datenbanken&#039;&#039;&#039; zur Gesichtserkennung durch &#039;&#039;&#039;ungezieltes Auslesen von Gesichtsbildern&#039;&#039;&#039;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen für Gesichtserkennungssoftware sammelt Bilder von Gesichtern, die mit einem „automatisierten Bildausleser“, der das Internet durchsucht und Bilder mit menschlichen Gesichtern erkennt, aus sozialen Medien (zB Facebook, X) ausgelesen wurden. Der Bildausleser sammelt diese Bilder mit allen damit verbundenen Informationen (wie der Quelle des Bildes (URL), der Geolokalisierung und manchmal den Namen der einzelnen Personen). Die Gesichtsmerkmale werden dann aus den Bildern extrahiert und in mathematische Darstellungen umgewandelt, die für die Indexierung und den künftigen Vergleich mit Hashtags versehen werden. Wenn ein Nutzer das Bild einer Person in das KI-System hochlädt, wird dieses System bestimmen, ob dieses Bild mit einem Gesicht in der Datenbank übereinstimmt.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 232.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Das ungezielte Auslesen anderer biometrischer Daten als Gesichtsbilder (zB Stimmaufnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Gesichtsbilddatenbanken, die nicht für die Erkennung von Personen verwendet werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Gesichtsbilder aus dem Internet sammeln, um KI-Modelle zur Erzeugung neuer Bilder fiktiver Personen zu entwickeln&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit e&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Emotionserkennungssysteme&#039;&#039;&#039; am Arbeitsplatz oder in Bildungseinrichtungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das beispielsweise aus Gesten, Stirnrunzeln oder fehlendem Lächeln ableitet, dass ein Mitarbeiter unglücklich, traurig oder gegenüber den Kunden wütend ist&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Systeme, die aus Stimmführung oder Körpersprache ableiten, dass ein Schüler zornig und im Begriff ist, gewalttätig zu werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Emotionen aus Tastenanschlägen (Art des Tippens), Gesichtsausdrücken, Körperhaltungen oder Bewegungen ableitet, beruht auf biometrischen Daten und fällt in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die den emotionalen Ton in hybriden Arbeitsteams überwachen, indem sie Emotionen aus Stimm- und Bildaufnahmen hybrider Videokonferenzen erkennen und ableiten, was in Regel der Förderung des sozialen Bewusstseins, des Managements emotionaler Dynamik und der Konfliktverhütung dienen würde&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems bei Online-Prüfungen zur Erkennung von Emotionen wie Erregungs- und Angstzustände&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung zur Bewertung des Wohlbefindens, des Motivationsniveaus und der Arbeits- oder Lernzufriedenheit von Studierenden oder Arbeitnehmern.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der Einsatz von KI-Erkennungssystemen, um auf die Ermüdung eines Berufspiloten oder -fahrers zu schließen, ihn zu warnen und ihm zu empfehlen, zur Vermeidung von Unfällen Pausen einzulegen, da Emotionserkennung keine physischen Zustände wie Schmerzen oder Ermüdung einschließt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das aus schriftlichen Texten (Analysen von Inhalt und Stimmung) Emotionen ableitet, um den Stil oder den Ton eines bestimmten Artikels zu bestimmen, beruht nicht auf biometrischen Daten und fällt daher nicht in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Werden Emotionserkennungssysteme nur zu persönlichen Schulungszwecken eingesetzt, sind sie zulässig, sofern die Ergebnisse nicht Personen mit Personalverantwortung zur Verfügung gestellt werden und keine Auswirkungen auf das Arbeitsverhältnis haben&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die durch eine Bildungseinrichtung erfolgende Verwendung einer KI-gestützten Software zur Verfolgung der Augenbewegungen bei Online-Prüfungen Studierender, um den Fixierungspunkt und die Bewegung der Augen zu verfolgen (um beispielsweise zu erkennen, ob unerlaubtes Material verwendet wird), ist nicht verboten, da das System Emotionen weder erkennt noch ableitet&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung aus medizinischen Gründen zur Unterstützung von Arbeitnehmern oder Studierenden mit Autismus und zur Verbesserung der Barrierefreiheit für blinde oder gehörlose Menschen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit f&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Kategorisierung,&#039;&#039;&#039; Ableitung von sensiblen Daten (religiöse Weltanschauung, politische Einstellung)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Personen, die auf einer Plattform sozialer Medien aktiv sind, nach ihrer angenommenen politischen Ausrichtung kategorisiert, indem es die biometrischen Daten der von ihnen auf die Plattform hochgeladenen Fotos analysiert, um ihnen gezielte politische Nachrichten zu übermitteln&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;ein System zur biometrischen Kategorisierung, das für sich in Anspruch nimmt, die religiöse Ausrichtung einer Person aus ihren Tätowierungen oder ihrem Gesicht ableiten zu können.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 280 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die mit der Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze, auch zu Strafverfolgungszwecken, befasst sind (zB bei Verdacht auf Darstellungen sexuellen Kindesmissbrauchs)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;die Kategorisierung von Patienten, bei der Bilder nach ihrer Haut- oder Augenfarbe verwendet werden, für medizinische Diagnosen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 284 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit g&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Echtzeit-Fernidentifizierungssysteme&#039;&#039;&#039; in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die polizeiliche Verwendung von Systemen zur biometrischen Echtzeit-Fernidentifizierung zu dem Zweck, Ladendiebe zu identifizieren und ihre Gesichtsbilder mit Kriminaldatenbanken zu vergleichen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 328.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung von Echtzeit-Gesichtserkennungstechniken durch die Polizei nach einem schweren Terroranschlag auf einen Weihnachtsmarkt mit zwölf Toten, um den Täter zu identifizieren und festzustellen, wohin er flieht. In diesem Zusammenhang nutzen sie auch die Echtzeit-Gesichtserkennungstechnik des nahe gelegenen Bahnhofs und der Zielbahnhöfe der Züge, die kurz nach dem Angriff von dort abgehen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 354.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit h&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&amp;lt;br /&amp;gt;&lt;br /&gt;
Einige dieser Praktiken sind darüber hinaus bereits nach anderen Rechtsvorschriften verboten, so beispielsweise gewisse manipulative und täuschende Techniken als &amp;quot;dark patterns&amp;quot; nach dem [[Digital Services Act (DSA)|Digital Services Act]] (gilt nur für bestimmte Plattform-Anbieter) oder die Verarbeitung biometrischer Daten zur Identifizierung einer Person nach Art 9 Abs 1 DSGVO, sofern keine der in Abs 2 genannten Ausnahmen vorliegt. Gemäß der neuen Plattformarbeitsrichtlinie&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Richtlinie (EU) 2024/2831 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit, ABl L 11. 11. 2024.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;, die bis Dezember 2026 in nationales Recht umzusetzen ist, ist überdies der Einsatz von automatisierten Überwachungs- und Entscheidungssystemen zur Erfassung personenbezogener Daten über den emotionalen oder psychischen Zustand einer Person (Emotionserkennung) verboten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;MwN &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2024) Art 5 Rz 104.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act klassifiziert Hochrisiko-KI-Systeme in Art 6. Dabei kennt er zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige&amp;quot; Hochrisiko-KI-Systeme bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei folgenden Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder stellt selbst ein solches Produkt dar&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten: bspw biometrische Identifizierung, kritische Infrastrukturen, grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle, Justiz und demokratische Prozesse).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis einer Entscheidungsfindung, an der das System beteiligt ist, wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot; &amp;lt;mark&amp;gt;Als Profiling gilt dabei iSd Art 4 Abs 4 DSGVO jede automatisierte Verarbeitung personenbezogener Daten, die darin besteht, bestimmte persönliche Aspekte einer Person zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, Gesundheit, persönliche Vorlieben, Zuverlässigkeit, Verhalten etc. zu analysieren oder vorherzusagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Europäische Kommission hat im Rahmen von Public Consultations unter anderem auch Rückmeldungen zu Anforderungen an Hochrisiko-KI-Systeme eingeholt, die eine Grundlage für Leitlinien bilden sollen, welche im Februar 2026 veröffentlicht werden sollen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;European Commission, Commission launches public consultation on high-risk AI systems, https://digital-strategy.ec.europa.eu/en/news/commission-launches-public-consultation-high-risk-ai-systems (Stand 6.6.2025).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Pflichten für Betreiber von Hochrisiko-KI-Systemen&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Betreiberpflichten nach Art 26 AI Act&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis &amp;lt;mark&amp;gt;([https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#KI-Kompetenz/AI_literacy_(Art_4_AI_Act) &amp;quot;KI-Kompetenz&amp;quot;] nach Art 4&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 40. &amp;lt;/ref&amp;gt;)&amp;lt;/mark&amp;gt; verfügen und ihnen die erforderliche Unterstützung zukommen lassen. &lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von automatisiert erzeugten &#039;&#039;&#039;Protokollen&#039;&#039;&#039; &amp;lt;mark&amp;gt;für einen Zeitraum von zumindest 6 Monaten (wobei hier entgegenstehende datenschutzrechtliche Regelungen vorgehen würden&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 42.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;)&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, vor Verwendung oder Inbetriebnahme des Hochrisiko-KI-Systems am Arbeitsplatz. &amp;lt;mark&amp;gt;Dies umfasst sowohl den Einsatz von &amp;quot;eingebetteten&amp;quot; als auch &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Weiters sind die Mitwirkungspflichten des Betriebsrats zu berücksichtigen (vgl §§ 96 f ArbVG). Nicht umfasst sind wahrscheinlich Informationspflichten gegenüber Bewerbern, da diese tendenziell nicht unter den von dieser Bestimmung geforderten &amp;quot;Arbeitnehmer-Begriff&amp;quot; fallen&amp;lt;/mark&amp;gt;.&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet. &amp;lt;mark&amp;gt;Diese Bestimmung gilt lediglich für den Einsatz von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen nach Art 6 Abs 2 iVm Anhang III.Die danach mitzuteilende Information sollte die Zweckbestimmung und die Art der getroffenen Entscheidung beinhalten (vgl ErwGr 93) sowie - nach einer hier vertretenen Auffassung - eine vorab Information über das Recht auf Erklärung nach Art 86 AI Act, welches von KI-Entscheidungen Betroffenen das Recht zugesteht, unter gewissen Voraussetzungen vom Betreiber eine klare und aussagekräftige Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess sowie zu den wichtigsten Elementen der getroffenen Entscheidung zu erhalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe die entsprechende Argumentationslinie im Detail: &#039;&#039;Research Institute&#039;&#039;, Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025) 100 ff, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.  &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 27 Abs 4 macht überdies die Verzahnung der Grundrechte-Folgenabschätzung (GRFA) mit anderen Folgenabschätzungen deutlich und schreibt bspw vor, dass bei Vorliegen einer Datenschutz-Folgenabschätzung nach Art 35 DSGVO die GRFA diese ergänzen bzw in diese integriert werden solle.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Piltz/Zwerschke&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 27 Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme Rz 32.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Sowohl die Verpflichtungen nach Art 26 als auch die Durchführung einer GRFA nach Art 27 treffen den Betreiber unabhängig davon, ob jemand (bspw Betroffene) deren Einhaltung einfordern. Im Unterschied dazu enthält der AI Act in den Artt 85 ff sog &amp;quot;Betroffenenrechte&amp;quot;, die aktiv von betroffenen Personen geltend zu machen sind. Dazu zählt insbesondere das [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Recht auf Erklärung nach Art 86], welches das einzige Betroffenenrecht darstellt, das direkt gegen den Betreiber durchsetzbar ist.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführer oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn die genannten Personen ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen;&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt;&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das &#039;&#039;nicht&#039;&#039; als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird.&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter (Erstanbieter) nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat jedoch mit dem neuen Anbieter zusammenzuarbeiten, insb Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI Act muss beachtet werden, dass die Rollenverteilung eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters erfolgt, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden &amp;lt;mark&amp;gt;sowie den Anforderungen an die Barrierefreiheit genügen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots, &amp;lt;mark&amp;gt;Sprachassistenten, Social Bots)&amp;lt;/mark&amp;gt;, sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Pflicht kann entfallen, wenn die Interaktion mit dem KI-System aus Sicht einer angemessen informierten, aufmerksamen und verständigen Person offensichtlich ist oder beim Einsatz von KI-Systemen, die für die Strafverfolgung zugelassen sind.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 43.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
*&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 40.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Chatbots&#039;&#039;&#039; können durch einen textlichen Hinweis zu Beginn des Gesprächs oder ein dauerhaft angezeigtes grafisches Symbol vorgestellt werden.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Bei &#039;&#039;&#039;Voicebots&#039;&#039;&#039; kommt eine der Interaktion vorausgehende Ansage, welche auf den KI-Einsatz hinweist, in Betracht.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social Bots&#039;&#039;&#039; können eine Information vor und mit jeder Interaktion des Bots in sozialen Netzwerken erfordern, da das System stets mit einem neuen Personenkreis in Interaktion tritt (zB AI-Influencer).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Das KI-Büro hat am 5. November 2025 Arbeiten an einem Verhaltenskodex in Bezug auf die Kennzeichnung von KI-generierten Inhalten aufgenommen. Die entsprechenden Leitlinien werden in einem siebenmonatigen Prozess, der sich insbesondere durch die Einbindung von relevanten Stakeholdern und öffentliche Konsultationen auszeichnen soll, erarbeitet werden. Näheres unter: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Mögliche Methoden wären bspw Wasserzeichen, Metadatenidentifizierungen, Kryptografische Methoden (zB &amp;quot;Hashing&amp;quot;), Protokollierungsmethoden oder Fingerabdrücke.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 133 Satz 4 sowie mwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 84 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Denkbar ist bspw eine Umsetzung in Form eines sichtbaren Wasserzeichens, eines textlichen Hinweises, durch Hinzufügen von sog C2PA-Content Credentials&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Die C2PA („Coalition forContent Provenanceand Authenticity“) ist ein branchenübergreifendes Non-profit-Projekt, das die Entwicklung gemeinsamer technischer Standards zur Ermittlung der Herkunft von digitalen Inhalten zum Ziel hat. Siehe dazu https://c2pa.org/. So hat sich bspw LinkedIn bei der Erkennung KI-generierter Inhalte diesen Standards unterworfen: https://www.linkedin.com/help/linkedin/answer/a6282984. MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 150.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;oder bei Audioinhalten durch eine Ansage zu Beginn des Audioinhalts.&amp;lt;ref&amp;gt;&#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 148 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Verpflichtung entfällt, wenn die betreffenden Inhalte vor ihrer Veröffentlichung einer menschlichen oder redaktionellen Kontrolle unterzogen wurden und eine Person die redaktionelle Verantwortung dafür trägt. Da die Anforderungen an die menschliche bzw redaktionelle Kontrolle nicht konkretisiert werden, unterwerfen sich bspw im journalistischen Bereich zahlreiche Medien freiwilligen Leitlinien (so etwa die [https://www.blm.de/files/pdf2/ki-leitlinien.pdf Leitlinien des Medienrats der Bayerischen Landeszentrale für neue Medien (BLM) zum Einsatz von Künstlicher Intelligenz im Journalismus]).&amp;lt;ref&amp;gt;MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 163 f.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als &amp;quot;KI-Systeme mit minimalem Risiko&amp;quot; bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf den sprunghaften Durchbruch generativer KI-Modelle, die für viele verschiedene Zwecke eingesetzt werden können, in den Jahren 2022 und 2023 wurden unter Durchbrechung des bisherigen zweck- und risikoorientierten Regelungsansatzes im Entwurfsstadium des AI Act nachträglich Regeln für solche Modelle eingefügt. Diese sind seit 2. August 2025 in Geltung. Ein GPAI-Modell (in früheren Entwurfsfassungen foundation model/Basismodell) ist dabei in Art 3 Z 63 AI Act definiert als ein KI-Modell, das&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;das eine erhebliche allgemeine Verwendbarkeit aufweist,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;In den von der EU-Kommission im Juli 2025 veröffentlichten Leitlinien zu GPAI-Modellen werden eine kumulierte Menge der für das Training verwendeten Berechnungen gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; von mehr als 10&amp;lt;sup&amp;gt;23&amp;lt;/sup&amp;gt; und die Fähigkeit, geschriebene oder gesprochene Sprache (aber auch Bilder oder Videos aus Text) zu generieren, als Anhaltspunkte für das Vorliegen eines GPAI-Modells angegeben, es sei denn, das Modell erfüllt die oben angegebenen Kriterien der Allgemeinheit nicht (zB weil es spezifisch nur für die Transkription von Sprache in Text trainiert wurde).&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 13 ff.&amp;lt;/ref&amp;gt; Somit ist davon auszugehen, dass die üblichen [https://de.wikipedia.org/wiki/Large_Language_Model LLM]s, wie die GPT-Serie von OpenAI, die Gemini-Serie von Google oder die Claude-Serie von Anthropic als GPAI-Modelle im Sinne dieser Definition einzustufen sind.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt.&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Abgrenzung der Rollen entlang der Wertschöpfungskette&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&amp;lt;mark&amp;gt;In Bezug auf GPAI-Modelle können (anknüpfend an die allgemeinen Rollendefinitionen des AI Act) folgende Rollen unterschieden werden:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Anbieter (Providers) von GPAI-Modellen:&#039;&#039;&#039; Entwickeln ein GPAI-Modell oder lassen es entwickeln und bringen es ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr oder nehmen es unter ihrem eigenen Namen oder ihrer Handelsmarke in Betrieb, sei es entgeltlich oder unentgeltlich (Art 3 Z 3 AI Act);&amp;lt;ref name=&amp;quot;:3&amp;quot;&amp;gt;Vgl Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 72 ff.&amp;lt;/ref&amp;gt; sie treffen primär die nachfolgend beschriebenen Pflichten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Modifizierer (Downstream Modifiers) von GPAI-Modellen&#039;&#039;&#039;: Fine-tunen/modifizieren&amp;lt;ref&amp;gt;Vgl ErwGr 97 Satz 5.&amp;lt;/ref&amp;gt; bestehende GPAI-Modelle anderer Anbieter; laut der Kommission ist nicht jeder Modifizierer dadurch gleich als Anbieter des modifizierten GPAI-Modells anzusehen, dies jedoch dann, wenn die Modifikation des GPAI-Modells zu einer wesentlichen Änderung der Universalität, der Leistungsfähigkeit oder des systemischen Risikos des GPAI-Modells führt, wobei als Indiz dafür gilt, dass die Anzahl der Berechnungen für die Modifikation ein Drittel jener für das Training des ursprünglichen GPAI-Modells übersteigt.&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 60 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Anbieter (Downstream Providers) von KI-Systemen:&#039;&#039;&#039; Integrieren GPAI-Modelle in KI-Systeme; ein wesentlicher Zweck der Regulierung von GPAI-Modellen ist, dass nachgelagerte Anbieter, ein GPAI-Modell in ihr KI-System integrieren, Informationen über dieses Modell erhalten und darauf basierend ihren eigenen Verpflichtungen (nach den allgemeinen Regeln des AI Act für KI-Systeme) nachkommen zu können.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Betreiber (Deployers):&#039;&#039;&#039; Verwenden ein KI-System im praktischen Einsatz.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme der Hauptgegenstand der Regulierung durch den AI Act sind (risikobasierten Ansatz), unterliegen auf Ebene der Modelle nur GPAI-Modelle einer direkten Regulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese Regulierung unterscheidet zwischen GPAI-Modellen ohne und GPAI-Modellen mit systemischem Risiko. Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act), &lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über &amp;quot;Fähigkeiten mit hohem Wirkungsgrad&amp;quot; verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; FLOPs beträgt.&amp;lt;ref&amp;gt;Zur Berechnung dieser Maßzahl siehe Annex der Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 117 ff.&amp;lt;/ref&amp;gt; Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act). Oder&lt;br /&gt;
* wenn die Kommission in einer Entscheidung festgestellt hat, dass es über solche Fähigkeiten oder eine solche Wirkung verfügt (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 Abs 1 AI Act):&lt;br /&gt;
&lt;br /&gt;
# eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden&lt;br /&gt;
# Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
# eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
# eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Pflichten 1 und 2 &amp;quot;gelten nicht für Anbieter von KI-Modellen, die im Rahmen einer freien und quelloffenen Lizenz bereitgestellt werden, die den Zugang, die Nutzung, die Änderung und die Verbreitung des Modells ermöglicht und deren Parameter, einschließlich Gewichte, Informationen über die Modellarchitektur und Informationen über die Modellnutzung, öffentlich zugänglich gemacht werden. Diese Ausnahme gilt nicht für KI-Modellen [sic!] mit allgemeinem Verwendungszweck mit systemischen Risiken.&amp;quot; (Art 53 Abs 2 AI Act) In den Leitlinien der Kommission ist die (strenge) Auslegung der einzelnen Kriterien dieser Definition ausführlich dargelegt.&amp;lt;ref name=&amp;quot;:3&amp;quot; /&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 Abs 1 AI Act):&lt;br /&gt;
&lt;br /&gt;
# eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
# mögliche systemische Risiken auf Unionsebene bewerten und mindern&lt;br /&gt;
# einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
# ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten&lt;br /&gt;
&amp;lt;mark&amp;gt;Details zur Umsetzung insbesondere dieser risiko- und sicherheitsbezogenen Pflichten sind im Kapitel Sicherheit des [https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai General-Purpose AI Code of Practice] festgelegt. Siehe dazu sogleich.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung des AI Act beitragen sollen.&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von GPAI-Modellen sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 56 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 10. Juli 2025 wurde der Praxisleitfaden &amp;quot;[https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai General-Purpose AI Code of Practice]&amp;quot; veröffentlicht und von der EU-Kommission und vom KI-Gremium am 1. August 2025 gem Art 56 Abs 6 AI Act als angemessen bewertet.&amp;lt;ref&amp;gt;Europäische Kommission, Erstellung eines allgemeinen KI-Verhaltenskodex, https://digital-strategy.ec.europa.eu/de/policies/ai-code-practice.&amp;lt;/ref&amp;gt; Zu diesem wurde auch eine [https://digital-strategy.ec.europa.eu/de/faqs/questions-and-answers-code-practice-general-purpose-ai FAQ-Seite] veröffentlicht. Auch ein [https://ec.europa.eu/newsroom/dae/redirection/document/118118 Musterdokumentationsformular für Modelle] ist Teil des GPAI Code of Practice. Zusätzlich hat die EU-Kommission am 18. Juli 2025 auch [https://ec.europa.eu/newsroom/dae/redirection/document/118340 Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act] veröffentlicht.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Für Anbieter von GPAI-Modellen, die den GPAI Code of Practice unterzeichnen und diesen einhalten, können dadurch nachweisen, dass sie ihre Pflichten nach Art 53 Abs 1 und Art 55 Abs 1 AI Act erfüllen.&amp;lt;ref&amp;gt;Vgl Art 50 Abs 7 und Art 53 Abs 4 AI Act, Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 94 sowie Europäische Kommission, Der General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/de/policies/contents-code-gpai.&amp;lt;/ref&amp;gt; Damit sollen Rechtssicherheit geschaffen sowie Compliance und Vollzug vereinfacht werden. Es handelt sich dabei aber um eine freiwillige Maßnahme und es steht Anbietern von GPAI-Modellen somit frei, die entsprechenden Bestimmungen des AI Act auch auf andere Weise umzusetzen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Auf der oben verlinkten Website des GPAI Code of Practice ist angegeben, welche Anbieter von GPAI-Modellen diesen unterzeichnet haben. Darunter finden sich die meisten Anbieter der gängigen LLMs, wie Anthropic, Google, OpenAI und Mistral AI.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Stand November 2025 wurde in Österreich noch keine Behörde als zuständige Marktüberwachungsbehörde eingerichtet oder benannt. Bereits mit 2. November 2024 sind jedoch einige Behörden und öffentliche Stellen im Grundrechtsbereich gemäß Art 77 Abs 2 mit Aufsichts- und Durchsetzungsbefugnissen für Grundrechte insb im Zusammenhang mit Hochrisiko-KI ausgestattet worden, darunter die Volksanwaltschaft, die Datenschutzbehörde, die Arbeiterkammer, die Gleichbehandlungskommission, die Behindertenanwaltschaft, die KommAustria uvm.&amp;lt;ref&amp;gt;Mehr dazu unter: https://www.digitalaustria.gv.at/themen/kuenstliche-intelligenz/behoerden-art77-ai-act.html.&amp;lt;/ref&amp;gt; Dabei treffen auch die (künftig) zuständige Marktüberwachungsbehörde umfassende Kooperationspflichten, wie etwa die Meldung schwerwiegender Grundrechtsvorfälle in diesem Kontext an die genannten Einrichtungen (vgl Art 73 Abs 7 und Art 79 Abs 2 AI Act).&amp;lt;ref&amp;gt;Vgl &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 103, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Dazu hat die Kommission entsprechende Leitlinien zu veröffentlichen, die sich gerade in Ausarbeitung befinden.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung im Einzelfall betroffen sind,&lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (&amp;lt;mark&amp;gt;Recht auf Erläuterung der Entscheidungsfindung im Einzelfall gemäß Art 86 Abs 1 AI Act oder auch gemeinhin als &#039;&#039;&#039;&amp;quot;Recht auf Erklärung&amp;quot;&#039;&#039;&#039; bezeichnet&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157; &#039;&#039;Poindl/Müller,&#039;&#039; Das Recht auf Erklärung im AI Act. Betroffenenrecht mit Potenzial oder Papiertiger?, VbR 2025, 40. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei ist es unerheblich, ob das KI-System die Entscheidung gänzlich autonom getroffen hat oder unterstützend beteiligt war, es darf lediglich keine untergeordnete Rolle im Entscheidungsprozess gespielt haben.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Steht das Recht auf Erklärung zu, hat die betroffene Person einerseits das Recht, eine Erklärung über die Rolle des KI-Systems im Entscheidungsprozess zu verlangen, worunter einerseits Informationen über die zentralen Aufgaben des Systems im Entscheidungsprozess fallen (zB Zielgruppenselektion, Datenanalyse, Vorgabe der Entscheidung usw.) und andererseits auch der Grad dessen Beteiligung (gering, mittel, hoch), was umgekehrt auch den Grad menschlicher Beteiligung an der Entscheidungsfindung erfordert. Weiters sind die wichtigsten Elemente der Entscheidung zu beauskunften, beispielsweise Eingabedaten, wesentliche Entscheidungsgründe, kontrafaktische Erklärungen (inwiefern hätten andere Parameter zu einer anderen Entscheidungen geführt), die Auswirkungen der Entscheidung, die Gewichtung der einzelnen Kriterien und die Verarbeitungslogik (Informationen über die grobe Funktionsweise des KI-Systems, keine komplette Offenlegung des algorithmischen Codes). Weiters muss die Erklärung präzise, korrekt, verständlich, nicht zu technisch (keine komplexen mathematischen Formeln), aber dennoch vollständig sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letzter Referenzpunkt ist stets, ob die betroffene Person auf Basis der erlangten Informationen weitere Rechte geltend machen kann, da das Recht auf Erklärung auch oft als &amp;quot;Türöffner&amp;quot; für die Geltendmachung weiterer Rechte dient (so wird bspw eine Klage wegen Diskriminierung in einem Entscheidungsprozess erst erhoben werden können, wenn die betroffene Person genügend Informationen hat, um die Diskriminierung darzulegen, bspw die Gewichtung von bestimmten persönlichen Merkmalen, die ausschlaggebend für die Entscheidung war).&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Es handelt sich somit um ein nachgelagertes bzw &#039;&#039;ex post&#039;&#039; Recht, das nicht nur globale, abstrakte Systemerklärungen erfordert, sondern auch lokale, einzelfallbezogene Auskünfte umfasst, damit die betroffene Person die Informationen wirksam nutzbar machen kann .&amp;lt;/mark&amp;gt; Das Recht auf Erklärung steht Betroffenen gegenüber Betreibern und nicht gegenüber Anbietern zu, wobei letztere wiederum Betreibern entsprechende Betriebsanleitungen bereitzustellen haben (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung gilt nicht, sofern Ausnahmen nach Unionsrecht oder nationalem Recht bestehen (Art 86 Abs 2). Zu denken wäre hier etwa an Beschränkungen der Informationspflicht aufgrund geschützter Betriebs- oder Geschäftsgeheimnisse, wobei diese nicht zu einer pauschalen Auskunftsverweigerung führen dürfen.&amp;lt;/mark&amp;gt; Art 86 Abs 1 gilt überdies nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung Subsidiarität] ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung ist immer dann relevant, wenn Unternehmen, Behörden etc. KI in Entscheidungsfindungsprozessen einsetzen, die Auswirkungen auf bestimmte Personen(-gruppen) haben. Zu denken ist etwa an KI-basierte Entscheidungen über die Vergabe von Krediten, über die Berücksichtigung einer Bewerbung, über die Höhe einer Versicherungsprämie oder personalisierte Werbeschaltungen auf Basis von Emotionserkennung.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zum Umgang mit dem Recht auf Erklärung in der Praxis hat das &#039;&#039;Research Institute&#039;&#039; im Auftrag des Bundesministeriums für Arbeit, Soziales, Gesundheit, Pflege und Konsumentenschutz Leitlinien entwickelt:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:f1685e43-21b8-48f3-9fe5-2c61898960ae/Final_Aufkl%C3%A4rung%204.0_Unternehmensleitfaden_April2025.pdf Leitfaden für Unternehmen] im Umgang mit Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:40ba630c-39af-4b8d-8768-a69192427b09/Final_Aufkl%C3%A4rung%204.0_Konsumentinnenleitfaden_April2025.pdf Leitfaden für Konsument:innen und ihre Interessenvertretungen] zur Durchsetzung ihrer Rechte&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf Theoretischer Grundlagenbericht] zur wissenschaftlichen Fundierung der ausgesprochenen Empfehlungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Europäische Komitee für Normung (CEN) und das Europäische Komitee für elektrotechnische Normung (cenelec) wurden mittels Durchführungsbeschluss aufgefordert, bis zum 30. April 2025 bestimmte angeführte Normen auzuarbeiten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/growth/tools-databases/enorm/mandate/593_en&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Der ursprüngliche Zeitplan konnte nicht eingehalten werden und es erfolgte eine neuerliche Fristverlängerung mittels eines neuerlichen Durchführungsrechtsaktes.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl Commisson Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation as regards high-risk AI-systems in support of Regulation (EU) 2024/1689 of the European Parliament and of the Council and repealing Implementing Decision C(2023)3215 &amp;lt;nowiki&amp;gt;https://ec.europa.eu/transparency/documents-register/detail?ref=C(2025)3871&amp;amp;lang=en&amp;lt;/nowiki&amp;gt;&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Seit November 2025 liegt der erste Entwurf einer harmonisierten Norm zum Qualitätsmanagement &amp;quot;EprEN 18286, Artificial intelligence – Quality management system for EU AI Act regulatory purposes nach Art 17 AI Act zur öffentlichen Kommentierung vor.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://adamleonsmith.substack.com/p/pren-18286&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Konsultation zu diesem Normentwurf läuft bis zum 22. Jänner 2026. In den kommenden Monaten sollen weitere Normentwürfe folgen – unter anderem zu Risikomanagement, Cybersicherheit, Vertrauenswürdigkeit und Konformitätsbewertung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zudem verabschiedenen CEN/cenelec im Oktober 2025 ein Maßnahmenpaket, um die Fertigstellung wichtiger Normen, die im Rahmen von CEN-CLC/JTC 21 „Künstliche Intelligenz” entwickelt wurden, sowie der im Rahmen des Normungsantrags M/593 (und seiner Änderung M/613) geforderten Ergebnisse zu beschleunigen. Diese Maßnahmen betreffen eine Reihe von Arbeitspunkten, die die technische Grundlage für die künftigen europäischen Normen zur Unterstützung des KI-Gesetzes bilden. Die Vorstände kamen überein, im Falle einer positiven Abstimmung über die Anfrage die direkte Veröffentlichung der Entwürfe ohne separate formelle Abstimmung zuzulassen und CEN-CLC/JTC 21 zu beauftragen, eine kleine Redaktionsgruppe aus bereits aktiven Experten einzurichten, um sechs der am stärksten verzögerten Entwürfe fertigzustellen, bevor sie den jeweiligen Arbeitsgruppen zur Information und für abschließende Kommentare vorgelegt werden.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://www.cencenelec.eu/news-events/news/2025/brief-news/2025-10-23-ai-standardization/&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf die verzögerten Standards im Entwurf Digital Omnibus on AI Regulation Proposal&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;bestimmte Maßnahmen vorgeschlagen, um eine zeitnahe, reibungslose und verhältnismäßige Umsetzung bestimmter Bestimmungen des AI-Acts sicherzustellen. Als eine Maßnahme wurde dabei die Kopplung des Zeitplans für die Umsetzung der Vorschriften für hohe Risiken an die Verfügbarkeit von Normen vorgeschlagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Grundlegende Überschneidungen zwischen dem AI Act und der Datenschutz-Grundverordnung (DSGVO)&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Da KI-Systeme bzw -Modelle häufig personenbezogene Daten verarbeiten - bspw im Rahmen des Trainings eines KI-Modells oder zur Entscheidungsunterstützung in Bezug auf konkrete Personen -, stellt sich unweigerlich die Frage nach dem Zusammenwirken des AI Act mit der DSGVO.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Der Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA) des LfDI Baden-Württemberg enthält eine Auswahl von Orientierungshilfen verschiedener Aufsichtsbehörden und Gremien zu den Schnittstellen von DSGVO und KI: https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0. MwN &#039;&#039;Holtz/Ledendal,&#039;&#039; AI Data Governance - Overlaps Between the AI Act and the GDPR (iE, 2026): https://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1996843&amp;amp;dswid=-4177 sowie der [https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/DE-Bridge-Blueprint-v.0.9.pdf &amp;quot;Bridge Blueprint&amp;quot;-Entwurf] zur einheitlichen Anwendung von Datenschutz- und KI-Regulierung des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI).&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letztere knüpft ihren Anwendungsbereich nämlich an die Verarbeitung personenbezogener Daten iSd Art 4 Abs 1 DSGVO, worunter alle Informationen zu verstehen sind, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Die DSGVO ist seit 2018 in Anwendung und verfolgt den Grundsatz, dass jegliche Verarbeitung personenbezogener Daten verboten ist, es sei denn, es liegt ein Erlaubnistatbestand nach Art 6 Abs 1 DSGVO vor. Für die Verarbeitung sog &amp;quot;sensibler Daten&amp;quot; nach Art 9 DSGVO (zB Gesundheitsdaten, die ethnische Herkunft, die religiöse Weltanschauung etc.) legt sie noch strengere Maßstäbe an. Damit verfolgt die DSGVO einen horizontalen sowie prinzipienbasierten Ansatz, wonach bei der Verarbeitung personenbezogener Daten bestimmte Anforderungen und Grundsätze einzuhalten sind, ungeachtet der verwendeten Technologie, des Sektors oder des Einsatzgebiets.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 32, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus orientiert sich die Verordnung daran, inwieweit eine bestimmte Datenverarbeitung ein Risiko für die Rechte und Freiheiten natürlicher Personen darstellt (&amp;quot;risikobasierter Ansatz&amp;quot;), wonach sich letztendlich die Strenge der von ihr vorgeschriebenen Verpflichtungen bemisst.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Der AI Act erkennt das Primat der DSGVO in Art 2 Abs 7 an und statuiert, dass er deren Anwendungsbereich unberührt lässt. Somit gehen im Falle der Verarbeitung personenbezogener Daten durch eine KI-Anwendung die Regelungen der DSGVO grundsätzlich vor, während der AI Act dem ergänzend eine produktsicherheitsrechtliche Komponente beifügt, die während der Entwicklung und des Einsatzes von KI zu beachten ist.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 33, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Überschneidungen beider Rechtsakte ergeben sich bspw, sobald ein KI-Modell mit personenbezogenen Daten &#039;&#039;&#039;trainiert&#039;&#039;&#039; werden soll. In diesem Fall braucht es eine Rechtsgrundlage nach Art 6 Abs 1 DSGVO (und ggf Art 9 DSGVO), wobei hier am ehesten die berechtigten Interessen des Verantwortlichen nach lit f leg cit infrage kommen. So hat sich bspw der Facebook-Mutterkonzern Meta auf berechtigte Interessen berufen, um sein Sprachmodell &amp;quot;LLaMA&amp;quot; hinter seiner &amp;quot;Meta AI&amp;quot; mit Nutzerdaten zu trainieren. Dagegen erhob die Verbraucherschutzzentrale NRW Antrag auf Erlass einer einstweiligen Verfügung, letztendlich entschied jedoch das OLG Köln in seinem Beschluss vom 23.05.2025 (15 UKl 2/25), dass sich Meta für das KI-Training mit Nutzerdaten auf berechtigte Interessen stützen könne.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://www.verbraucherzentrale.nrw/urteilsdatenbank/digitale-welt/olg-koeln-weist-eilantrag-der-verbraucherzentrale-nrw-gegen-meta-wegen-kitraining-zurueck-108065.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Umgekehrt ist laut Art 35 DSGVO immer dann eine Datenschutz-Folgenabschätzung durchzuführen, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat, insbesondere bei Verwendung neuer Technologien. Darunter fallen gemäß §2 Abs 2 Z 4 DSFA-V&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Verordnung der Datenschutzbehörde über Verarbeitungsvorgänge, für die eine Datenschutz-Folgenabschätzung durchzuführen ist (DSFA-V), BGBl. II Nr. 278/2018.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;insbesondere Datenverarbeitung unter Einsatz von künstlicher Intelligenz, welcher jedenfalls die Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung nach sich zieht. Somit löst auch der Einsatz von KI unter gewissen Voraussetzungen datenschutzrechtliche Pflichten aus.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: Digital Services Act (DSA) vs AI Act ===&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der DSA legt einheitliche Regeln für Vermittlungsdienste mit dem Ziel fest, ein vertrauenswürdiges, (rechts-)sicheres und vorhersehbares Online-Umfeld für Verbraucher und Unternehmen durch eine harmonisierte Plattformregulierung zu gewährleisten. Ebenso zielt das Regelwerk auf den Schutz sowie die Gewährleistung einer effektiven Grundrechtsausübung und normiert umfassende Verpflichtungen für Anbieter von Online-Diensten in Form eines abgestuften Regelungsansatzes, der die unterschiedlichen Compliance-Pflichten an die Art und Größe der jeweiligen Online-Dienste knüpft. Dabei kennt der DSA folgende Anbieterkategorien: Anbieter von allgemeinen Vermittlungsdiensten, Hostingdiensten, Online- sowie Transaktionsplattformen und sehr großen Online-Plattformen (VLOPs) und -Suchmaschinen (VLOSEs). Überschneidungen mit dem AI Act können sich auf zweierlei Weise ergeben: Einerseits können KI-Anwendungen zur Generierung oder Manipulation von Inhalten verwendet werden, die dann über Vermittlungsdienste geteilt werden. Andererseits können KI-Systeme das Kernangebot des Diensteanbieters ausmachen, in der Inhaltsmoderation eingesetzt werden oder Produkt- bzw Service-Empfehlungen auf Basis von Nutzerverhalten (&amp;quot;Empfehlungsalgorithmen&amp;quot;) schalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 48, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Allgemeine Synergien sind dem [[Digital Services Act (DSA)|Eintrag über den DSA]] zu entnehmen.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
* Weiters kann es bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act in Bezug auf die notwendige Risikoanalyse kommen. &amp;lt;mark&amp;gt;So fordern die Artikel 34 und 35 DSA die Analyse jener potenzieller systemischer Risiken, die sich durch das Design, die Funktion oder die Nutzung ihrer Services ergeben, insbesondere im Zusammenhang mit algorithmischen Systemen oder Systemen zur Inhaltsmoderation. Demgegenüber legt der AI Act in Art 17 die Verpflichtung für Anbieter von Hochrisiko-KI-Systemen zur Etablierung eines Risikomanagementsystems gemäß Art 9 AI Act fest und sieht spezielle Anforderungen für Anbieter von GPAI-Modellen mit systemischem Risiko vor (Art 55 Abs 1 lit b AI Act).&amp;lt;/mark&amp;gt; Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Im Fall von Anbietern von Hochrisiko-KI-Systemen sieht der AI Act sogar explizit die Möglichkeit vor, Risikomanagementprozesse nach anderen unionsrechtlichen Bestimmungen mit jenen nach dem AI Act zu kombinieren (vgl Art 9 Abs 10 AI Act).&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 49, &amp;lt;nowiki&amp;gt;https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Art 86 AI Act normierte Recht auf Erläuterung] besteht potentiell eine Subsidiarität gegenüber anderen Auskunftsansprüchen, insb der Auskunftspflicht nach Art 15 Abs 1 lit h DSGVO iVm Art 22 DSGVO. &amp;lt;mark&amp;gt;Demnach steht Personen, die von einer automatisierten Entscheidungsfindung im Einzelfall einschließlich Profiling betroffen sind, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie ähnlich erheblich beeinträchtigt, das Recht zu, neben allgemeinen Informationen über die Verarbeitung ihrer personenbezogenen Daten aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und Auswirkungen einer derartigen Verarbeitung zu verlangen. Inhaltlich&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;richtet sich der Auskunftsanspruch nach Art 15 Abs 1 lit h DSGVO gemäß rezenter EuGH-Judikatur insb auf die Erläuterung des Verfahrens und der Grundsätze, die bei der automatisierten Verarbeitung der personenbezogenen Daten der betroffenen Person zur Anwendung kamen und zu dem bestimmten Ergebnis geführt haben.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117, Rz 58. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Frage nach einer potenziellen Subsidiarität von Art 86 AI Act gegenüber den entsprechenden datenschutzrechtlichen Vorschriften hängt von unterschiedlichen Fallszenarien ab, in denen die jeweils verwendeten Technologien und verarbeiteten Datenkategorien zu unterschiedlichen Ergebnissen führen können:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 15 Abs 1 lit h iVm Art 22 DSGVO&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsfolge&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Hochrisiko-KI-Einsatz in Entscheidungsfindungsprozessen, in denen entweder keine personenbezogenen Daten gemäß Art 4 Z 1 DSGVO verarbeitet werden (zB Verarbeitung lediglich aggregierter Daten) oder keine vollautomatisierte Entscheidung iSd Art 22 DSGVO getroffen wird (etwa weil ein Mensch maßgeblich an der Entscheidungsfindung beteiligt ist)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Das Recht auf Erklärung steht vollumfänglich wie in Art 86 Abs 1 dargelegt zu (bei Vorliegen der übrigen Voraussetzungen). Der betroffenen Person sind somit klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess und zu den wichtigsten Elementen der getroffenen Entscheidung zu übermitteln, wobei die Erklärung einzelfallbezogen und auf das konkrete Ergebnis gerichtet sein muss. Der Anwendungsbereich von Art 15 (Abs 1 lit h iVm Art 22) DSGVO ist hingegen nicht eröffnet. Das Recht, die Entscheidung anzufechten, steht - zumindest gemäß AI Act - nicht zu.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Es findet eine vollautomatisierte Entscheidungsfindung auf Basis der Verarbeitung personenbezogener Daten statt, allerdings ohne Beteiligung eines Hochrisiko-KI-Systems iSd Art 6 Abs 2 iVm Anhang III AI Act (bspw wird die Entscheidung durch einen herkömmlichen Algorithmus getroffen, der Anforderungen an ein KI-System nach Art 3 Z 1 AI Act nicht erfüllt oder das KI-System fällt nicht in den Hochrisiko-KI-Bereich)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Auskunftsanspruch gemäß Art 15 (Abs 1 lit h iVm Art 22) DSGVO steht bei Vorliegen der übrigen Voraussetzungen zu, während das Recht auf Erklärung nach Art 86 AI Act keine Anwendung findet. Es sind der betroffenen Person somit Informationen über die involvierte Logik, Tragweite und Auswirkungen der Entscheidung zu übermitteln, wobei Informationen über die Rolle des eingesetzten Systems nicht darunter fallen. Im Unterschied zu Art 86 AI Act ist in Bezug auf Art 15 Abs 1 lit h DSGVO jedoch noch unklar, ob auch eine Verpflichtung zu einer einzelfallbezogenen Begründung der konkret erzielten Ergebnisse besteht, die über eine abstrakte/allgemeine Erklärung hinausgeht.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl etwa das EuGH-Urteil in der RS Dun &amp;amp; Bradstreet, welches stärker auf das lokale Element, dh die Einzelentscheidung, abzustellen scheint (EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117). MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 71, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Art 22 Abs 3 DSGVO enthält jedoch im Gegensatz zum AI Act das Recht, die Entscheidung anzufechten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Verarbeitung personenbezogener Daten im Rahmen der Entscheidungsfindung, Einsatz eines Hochrisiko-KI-Systems, vollautomatisierte Entscheidungsfindung&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Anspruch nach Art 86 AI Act tritt ergänzend zu jenem nach der DSGVO hinzu und richtet sich auf jene Informationen, die nach Art 15 DSGVO nicht zu beauskunften sind (bspw die Rolle des KI-Systems im Entscheidungsprozess sowie jedenfalls einzelfallbezogene, lokale Erklärungen). Es handelt sich somit um eine sog &amp;quot;Lückenfüller-Position&amp;quot; von Art 86 AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Ansicht folgend und mwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 96 ff, &amp;lt;nowiki&amp;gt;https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;mark&amp;gt;In der Regel werden Betroffene in der Praxis wohl beide Ansprüche gleichzeitig geltend machen. Dies ist allerdings nur möglich, sofern beide Ansprüche auch gegenüber der selben Person bzw Einrichtung geltend zu machen sind. Denn während das Recht auf Erklärung nach Art 86 AI Act gegen den Betreiber des KI-Systems zusteht, ist der Auskunftsanspruch gemäß Art 15 Abs 1 lit h DSGVO gegen jene Person oder Stelle zu richten, welche die Entscheidung getroffen hat (welche zwar meist aber nicht zwangsläufig mit der Person des datenschutzrechtlich Verantwortlichen iSd Art 4 Z 7 DSGVO ident sein wird&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Argumentation folgend: &#039;&#039;Ziegenhorn,&#039;&#039; Wer ist Adressat des Art. 22 DSGVO? Zur Abgrenzung des Entscheiders vom Verantwortlichen, CR 2024, 586.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;). Die unterschiedlichen Rollen nach AI Act und DSGVO können somit zusammenfallen, müssen dies allerdings nicht, wodurch sich unterschiedliche Verpflichtungen für die beteiligten Akteure ergeben können.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== Produkthaftungsrichtlinie neu und Vorschlag für eine AI Liability Directive [zurückgezogen] ===&lt;br /&gt;
&lt;br /&gt;
* Die Produkthaftungsrichtlinie neu (PHRL neu) und insbesondere &amp;lt;mark&amp;gt;der (zurückgezogene)&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Commission work programme 2025, (11.2.2025) COM(2025) 45 final, 26.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Vorschlag für eine&amp;lt;/mark&amp;gt; AI Liability Directive (AILD) nehmen direkt auf den AI Act Bezug und verweisen bei der Begriffsverwendung häufig auf diesen. Die AILD kann somit nicht ohne den Kontext des AI Act verstanden werden. So sollten die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD bilden ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]). &lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act überträgt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Begleit- bzw Durchführungsgesetz, das die Sanktionen konkretisiert.  &amp;lt;mark&amp;gt;Auch die notifizierende(n) Behörde(n) und die Marktüberwachungsbehörde(n) (Art 70 AI Act) wurden in Österreich noch nicht benannt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 5: Transkriptionstool im Rahmen der Rechtspflege&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|&amp;lt;mark&amp;gt;Im Rahmen des Verfassens von Urteilen oder Protokollen wird das gesprochene Wort (Diktat des Entscheidungsorgans) digital aufgezeichnet und anschließend transkribiert. Das System ist in der Lage, mithilfe KI-gestützter Spracherkennung die jeweils Sprechenden (Speaker Diarisation) sowie juristische Begriffe und Redewendungen zu erkennen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Transkriptionssoftware liegt ein Sprachmodell (LLM) zugrunde, das auf maschinellem Lernen basiert. Dieses wird durch ein User-Interface praktisch nutzbar gemacht und stellt somit ein KI-System iSd AI Act dar.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&amp;lt;mark&amp;gt;Der Einsatz von KI in der Rechtspflege zu gewissen Zwecken kann in den Hochrisiko-KI-Bereich gemäß Art 6 Abs 2 iVm Anhang III Nr 8 lit a AI Act fallen. Solche Systeme sind jedoch nicht als hochriskant einzustufen, sofern sie für rein begleitende administrative Tätigkeiten bestimmt sind, worunter jedenfalls Spracherkennungsprogramme für das Diktieren von Entscheidungen fallen können (ErwGr 61). In einem nächsten Schritt ist die Ausnahmeregelung des Art 6 Abs 3 AI Act zu prüfen, wonach das System höchstwahrscheinlich gemäß lit a leg cit aus dem Hochrisiko-KI-Bereich ausgenommen ist, da es rein für Protokollierungszwecke eingesetzt wird und damit nur eine eng gefasste Verfahrensaufgabe übernimmt. Ebenso ist denkbar, gemäß lit d leg cit aus dem Hochrisiko-KI-Bereich ausgenommen zu sein, sofern das System lediglich eine vorbereitende Aufgabe für die Urteilserstellung übernimmt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Bejaht man hingegen das Vorliegen von Hochrisiko-KI, so treffen deren Anbieter die Pflichten der Art 8 ff AI Act und den Betreiber insbesondere die Pflichten nach Art 26 und 27 AI Act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Sofern es sich um ein KI-Modell mit allgemeinem Verwendungszweck (mit systemischem Risiko) handelt, treffen den Anbieter diesbezüglich Verpflichtungen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Unabhängig von der Risikoeinstufung des Modells bzw Systems sind darüber hinaus die Transparenzpflichten nach Art 50 AI Act zu beachten sowie ein ausreichendes Maß an KI-Kompetenz unter den Beschäftigten, die mit dem Transkriptionstool arbeiten, herzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 6: KI-System zur Filterung und Priorisierung von Bewerbungen&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Sachverhalt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen möchte eine neue Stelle besetzen und erhält unzählige Bewerbungen. Daher entschließt es sich, ein KI-basiertes System einzusetzen, das Bewerbungen filtert und mit einem Einstufungswert versieht, wodurch die Bewerbungen priorisiert werden. Die zuständigen HR-Mitarbeiter*innen weichen nicht mehr von dem Wert ab und vergeben die Stelle schließlich an jene Person, die den höchsten Einstufungswert erhalten hat.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!&amp;lt;mark&amp;gt;Einordnung AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Sofern es sich bei der Anwendung um ein KI-System nach Art 3 Z 1 AI Act handelt, ist der Anwendungsbereich des AI Act grundsätzlich eröffnet. Das Unternehmen ist jedenfalls als dessen Betreiber zu qualifizieren, da es das System in eigener Verantwortung zu beruflichen Zwecken einsetzt. Sofern es das KI-System auch selbst entwickelt / entwickeln lässt und es unter eigener Marke bzw eigenem Namen in Betrieb nimmt, ist es sogar Anbieter.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]].&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Darüber hinaus stellt das System ein &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System nach Art 6 Abs 2 iVm Anhang III Punkt 4a AI Act dar, da es bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet wird, um Bewerbungen zu filtern und Bewerber zu bewerten. Eine Ausnahme nach Art 6 Abs 3 AI Act vom Hochrisiko-KI-Bereich liegt nicht vor, da das KI-System das Ergebnis der Entscheidungsfindung wesentlich beeinflusst (von dem KI-generierten Eignungswert wird nicht mehr abgewichen). Je nach Rolle treffen das Unternehmen nun weitereichende Verpflichtungen. In den meisten Fällen wird das Unternehmen wohl als Betreiber zu klassifizieren sein, weshalb es unter anderem die Betreiberpflichten nach Art 26 AI Act zu erfüllen und unter gewissen Voraussetzungen eine Grundrechte-Folgenabschätzung nach Art 27 AI Act durchzuführen hat. Art 26 Abs 7 sieht grundsätzlich auch die spezielle Betreiberpflicht vor, vor Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz die Arbeitnehmervertreter und betroffenen Arbeitnehmer über den KI-Einsatz zu informieren. Inwieweit diese Verpflichtung auch gegenüber Bewerbern gilt, die streng genommen (noch) keine Arbeitnehmer sind, ist fraglich und wird wohl zu verneinen sind. Diese vermeintliche Rechtsschutzlücke wird jedoch ohnehin wieder durch die Verpflichtung gemäß Art 26 Abs 11 AI Act ausgeglichen, von Hochrisiko-KI-Entscheidungen betroffene Personen über diesen KI-Einsatz zu informieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= &amp;lt;mark&amp;gt;Digitaler Omnibus&amp;lt;/mark&amp;gt; =&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 19. November 2025 stellte die Europäische Kommission das sogenannte &#039;&#039;&#039;„Digital Omnibus Package“&#039;&#039;&#039; vor, ein Legislativpaket mit dem Ziel, den digitalen Rechtsrahmen der EU zu vereinfachen.&amp;lt;ref name=&amp;quot;:2&amp;quot;&amp;gt;Vgl https://ec.europa.eu/commission/presscorner/detail/de/ip_25_2718. &amp;lt;/ref&amp;gt; Ziel der Maßnahme ist, Verwaltungs- und Umsetzungskosten zu senken, Rechtsklarheit zu erhöhen und insbesondere kleine und mittlere Unternehmen (KMU) zu entlasten, da Unternehmen zunehmend Schwierigkeiten bei der Umsetzung und Koordination von Vorgaben wie etwa dem AI Act sehen. Das Paket umfasst Änderungen und Anpassungen unterschiedlicher Rechtsrahmen, so auch einige Bestimmungen des AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Inhaltliche Änderungen betreffen einerseits die Verpflichtung zur Sicherstellung von KI-Kompetenz (Art 4), welche nunmehr nicht Unternehmen bzw. Einrichtungen selbst treffen soll, sondern die Kommission und die Mitgliedstaaten sind dazu angehalten, Anbieter und Betreiber zur Sicherstellung eines angemessenen Maßes an KI-Kompetenz zu unterstützen. Ebenso stellt die Kommission eine Verzögerung der Anwendbarkeit der Hochrisiko-KI-Bestimmungen in Aussicht, welche mit 2. August 2026 bzw 2. August 2027 Anwendung erlangen sollten. Grund ist das Fehlen von entsprechenden Standards, die eigentlich bis August 2025 zu setzen waren und ohne die laut Kommission die Einhaltung der entsprechenden AI Act-Bestimmungen nicht möglich sei. Die Anwendbarkeit der Hochrisiko-KI-Bestimmungen soll sich um bis zu maximal 16 Monate verzögern, wobei die Vorschriften Geltung erlangen, sobald die Kommission die Verfügbarkeit der erforderlichen Standards und Unterstützungsinstrumente bestätigt.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:2&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus enthält der Vorschlag einen neuen Art 4a, der die Verarbeitung sensibler personenbezogener Daten zur Erkennung und Minderung von Bias unter gewissen Voraussetzungen ermöglicht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Kommissionsleitlinien und sonstige Materialen/Verhaltenskodizes&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zur Definition eines Systems der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 6. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118628&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 4. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118661&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Living Repository zur Förderung des Lernens und des Austausches über KI-Kompetenz vom 04. Februar 2025 (mit Update von April 2025): https://ec.europa.eu/newsroom/dae/redirection/document/112203&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Praxisleitfaden für KI-Modelle mit allgemeinem Verwendungszweck (General-Purpose AI Code of Practice) vom 10. Juli 2025: https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Transparenz: https://ec.europa.eu/newsroom/dae/redirection/document/118120&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Urheberrecht: https://ec.europa.eu/newsroom/dae/redirection/document/118115&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Sicherheit: https://ec.europa.eu/newsroom/dae/redirection/document/118119&amp;lt;/mark&amp;gt;  &lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act vom 18. Juli 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118340&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien und Meldevorlagen zur Meldung schwerwiegender KI-Vorfälle gemäß Art 73 AI Act (&#039;&#039;Entwurf, noch in Ausarbeitung&#039;&#039;): https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; AI Act Service Desk. Frequently Asked Questions (FAQs): https://ai-act-service-desk.ec.europa.eu/en/faq.&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Whistleblower Tool for AI Act, https://digital-strategy.ec.europa.eu/en/news/commission-launches-whistleblower-tool-ai-act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act)&amp;lt;mark&amp;gt;&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024) &amp;lt;mark&amp;gt;(2. Auflage 2026, iE)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schefzig/Kilian,&#039;&#039; BeckOK KI-Recht&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Hochrangige Expertengruppe für Künstliche Intelligenz,&#039;&#039; Ethik-Leitlinien für eine vertrauenswürdige KI (2019), https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425&amp;lt;/mark&amp;gt;&lt;br /&gt;
* [https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0 Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA)]&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4340</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4340"/>
		<updated>2025-11-27T23:35:16Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* GPAI-Modelle (Art 51 ff AI Act) */ Präzisierung betreffen GPAI-Rollen&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. Februar 2025 (schrittweise)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen von KI-Systemen &lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD, &amp;lt;mark&amp;gt;von der Kommission zurückgezogen&amp;lt;/mark&amp;gt;)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modelle (general purpose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB Verarbeitung zur Vermeidung von Verzerrungen, Art 10), regulatory sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (zB Anbieter- und Betreiberpflichten, Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz (eingeschränkt); reine Forschungszwecke &lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) gelten seit 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (zB Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|Gewährleistung von Transparenz und Verantwortlichkeit&lt;br /&gt;
|Pflichten für Betreiber (professionelle Nutzer*innen) und Anbieter&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (zB Chatbots, Deepfakes)&lt;br /&gt;
|Informationspflichten nach der DSGVO&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
&amp;lt;mark&amp;gt;Der AI Act ist die erste EU-weite, sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) und&amp;lt;/mark&amp;gt; folgt dabei primär einem produktsicherheitsrechtlichem Ansatz, dessen vorrangiges Regulierungsziel die Sicherheit von KI-Systemen und Modellen ist. &amp;lt;mark&amp;gt;Damit ist er Teil des sog [https://single-market-economy.ec.europa.eu/single-market/goods/new-legislative-framework_en?prefLang=de &amp;quot;New Legislative Framework&amp;quot;] (NLF), einem unionsrechtlichen Maßnahmenpaket zur Produktregulierung, das auf die Verbesserung der Marktüberwachung abzielt und sich durch einheitliche Kernelemente auszeichnet (zB Konformitätsbewertungsverfahren, Selbstregulierung, Standards und einheitliche Anforderungen). Im Rahmen des Gesetzgebungsprozesses wurde der Rechtsakt - insbesondere auf Bestreben des Europäischen Parlaments - um menschenrechtliche Aspekte und Betroffenenrechte erweitert, weshalb der AI Act mittlerweile deutlich über reines Produktsicherheitsrecht hinausgeht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modelle&#039;&#039;&#039; bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot;.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei handelt es sich um &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;ableitet&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot;&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe Art 3 Z 1 AI Act. Hervorhebungen nicht im Original. &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;abzuleiten&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Hingegen soll sich nach ErwGr 12 der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen [...]&amp;quot;, womit auf eine Abgrenzung von KI von herkömmlichen Softwarelösungen und Programmierungsansätzen abgezielt wird.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zusammenfassend möchte der EU-Gesetzgeber mit dieser Definition einerseits Rechtssicherheit schaffen, allerdings immer noch Raum für technologischen Fortschritt lassen, um den Anwendungsbereich des AI Act nicht von Vornherein vor potenziellen künftigen technologischen Entwicklungen zu verschließen.&amp;lt;/mark&amp;gt; Dennoch wurde die Definition als zu vage und unbestimmt empfunden. So wurden diverse Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Um den Begriff des KI-Systems also zu konkretisieren und Unsicherheiten zu beseitigen, sollte die Kommission gemäß Art 96 Abs 1 lit f AI Act Leitlinien vorlegen, und damit eine einheitliche Anwendung des Regelwerks fördern sowie Rechtsicherheit gewährleisten&amp;lt;/mark&amp;gt;.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle, &amp;lt;mark&amp;gt;einfache Datenverarbeitungssysteme, auf klassische Heuristik gestützte Systeme, einfache Vorhersagesysteme etc.&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Eine Positiv-Liste, welche Systeme jedenfalls unter den KI-Begriff fallen, enthalten die Leitlinien allerdings nicht. Sie orientieren sich vielmehr an den 7 Kernelementen der KI-Definition gemäß Art 3 Z 1 AI Act. Es wird überdies betont, dass nicht alle Elemente kontinuierlich in den beiden Hauptphasen des Lebenszyklus von KI (&amp;quot;building phase&amp;quot; / &amp;quot;pre-deployment&amp;quot; oder &amp;quot;use phase&amp;quot; / &amp;quot;post-deployment&amp;quot;) vorhanden sein müssen und, dass sich die Leitlinien kontinuierlich weiterentwickeln sollen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Folgende Konkretisierungen der KI-Definition und Beispiele sind den Leitlinien zu entnehmen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Elemente der KI-Definition&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Erläuterungen in den Leitlinien der EU-Kommission&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Maschinengestütztes System&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;KI benötigt Hardware- und Softwarekomponenten&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB eine Hardwareinfrastruktur wie processing units, Speicher, Input/Output-Schnittstellen und Software (Code, Programme etc.)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;autonomer Betrieb (in unterschiedlichem Grade)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erfordert einen gewissen Grad an Unabhängigkeit von menschlichem Eingreifen, wobei Systeme, die vollständig manuelle menschliche Interaktion erfordern, nicht darunter fallen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Umfasst sind Systeme, die zwar einen manuellen Input erfordern, aber von selbst einen Output generieren (zB Chatbots)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anpassungsfähigkeit nach Betriebsaufnahme (optional)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Selbstlernfähigkeiten (nicht zwingend erforderlich); darunter versteht man, ob sich das Verhalten des Systems während seiner Verwendung anpassen oder verändern kann (zB automatisches Lernen, wie Muster oder Beziehungen zwischen Daten erkannt werden können).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungsfähigkeit&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Inferenz, Schlüsseleigenschaft; dient der Abgrenzung von KI-Systemen von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen. Nicht umfasst sind hingegen Systeme, die nur von Menschen programmierten Regeln folgen und automatisiert Operationen ausführen. Die Ableitungsfähigkeit bedeutet daher die Erlernung allgemeiner Konzepte statt fester, vorprogrammierter Regeln.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Bsp: maschinelles Lernen, logik- und wissensgestützte Systeme (Schlussfolgerungen mittels Deduktion oder Induktion)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitung aus Eingaben für implizite oder explizite Ziele&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungen müssen nach entweder:&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;expliziten Zielen (klar definierte, direkt in den Code programmierte Ziele, Optimierung von Kostenfunktionen, Wahrscheinlichkeitsberechnung) oder&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;impliziten Zielen (Ableitung des Ziels aus dem Verhalten oder den dahinterstehenden Annahmen des Systems; bspw Trainingsdaten oder Interaktion des Systems mit Umwelt) erfolgen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erzeugung von Ausgaben&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ausgabe-Arten umfassen unter anderem&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Vorhersagen (Schätzungen unbekannter Werte basierend auf komplexen Datenmustern)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Inhalte (Texte, Bilder, Videos oder Musik)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Empfehlungen (Vorschläge für Maßnahmen, Produkte oder Dienstleistungen, die hochgradig personalisiert sind und Massendaten nutzen).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Entscheidungen (Vollautomatisierte Schlussfolgerungen oder Auswahlentscheidungen, die Prozesse automatisieren, die üblicherweise menschlichem Urteilsvermögen vorbehalten sind)&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;zB die generierten Inhalte von Chatbots, Produktvorschläge, Echtzeit-Vorhersagen, Auswahlentscheidungen&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Beeinflussung physischer oder virtueller Umgebungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Frage, ob das System einen aktiven Einfluss auf die Umgebungen hat, in denen es eingesetzt wird, sei es auf materielle physische Objekte oder auf digitale Räume&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB Roboterarm, Software-Ökosysteme, Datenströme&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}  &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI-Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit aus, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). &amp;lt;mark&amp;gt;Man kann hier den Vergleich zu einem KFZ ziehen, wobei das KI-Modell den Motor darstellt, der die eigentliche &amp;quot;Arbeit&amp;quot; leistet. Um jedoch fahrtüchtig zu sein, bedarf es nicht nur eines Motors, sondern das Fahrzeug benötigt darüber hinaus eine Karosserie, Räder, ein Lenkrad etc. Das wiederum bezeichnet das KI-System, welches das Modell erst durch seine Schnittstellen, seine Benutzeroberfläche etc. &amp;quot;fahrtüchtig&amp;quot; und damit nutzbar macht.&amp;lt;/mark&amp;gt; Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen &amp;quot;Nutzer&amp;quot;) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder sich in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollen:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität), unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act trat am &#039;&#039;&#039;1. August 2024&#039;&#039;&#039; in Kraft und wird generell am &#039;&#039;&#039;2. August 2026&#039;&#039;&#039; anwendbar (Art 113 AI Act). Gestaffelt erlangen einige Bestimmungen jedoch bereits vorab oder danach Geltung:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab &#039;&#039;&#039;2. August 2025&#039;&#039;&#039;&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem &#039;&#039;&#039;2. August 2027&#039;&#039;&#039;&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 111 Abs 2 AI Act enthält dabei jedoch eine sog „grandfathering“-Klausel, nach welcher der AI Act für Betreiber von Hochrisiko-KI-Systemen, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, nur dann gilt, wenn diese Systeme danach in ihrer Konzeption erheblich verändert wurden.&amp;lt;ref&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 23, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Verpflichtung zur Maßnahmenergreifung gilt für Betreiber und Anbieter gleichermaßen und ist ferner unabhängig von der Risikoklasse der infragestehenden KI-Anwendung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Unter KI-Kompetenz versteht man grundsätzlich &amp;quot;die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.&amp;quot;&amp;lt;ref&amp;gt;Vgl die Definition in Art 3 Z 56 AI Act.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dies umfasst die notwendigen Kompetenzen, um fundierte Entscheidungen über KI-Systeme zu treffen, technische Elemente zu verstehen sowie korrekt anzuwenden, die Auswirkungen von KI-basierten Entscheidungen auf Betroffene zu verstehen und KI-generierte Ausgaben angemessen zu interpretieren.&amp;lt;ref name=&amp;quot;:1&amp;quot;&amp;gt;Vgl ErwGr 20 AI Act. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dazu gehört auch, den einschlägigen Akteuren der KI-Wertschöpfungskette jene erforderlichen Kenntnisse zu vermitteln, um die Einhaltung und Durchsetzung der Vorschriften des AI Act zu gewährleisten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Weitere Konkretisierungen oder zwingende Mindestvorgaben für die Sicherstellung der KI-Kompetenz enthält der AI Act allerdings nicht und betont sogar, dass die Konzepte der KI-Kompetenz in Bezug auf den jeweiligen Kontext unterschiedlich sein können.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:1&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Die EU-Kommission hat daher ein [https://digital-strategy.ec.europa.eu/de/library/living-repository-foster-learning-and-exchange-ai-literacy &amp;quot;Living Repository&amp;quot;] angelegt, in dem Unternehmen ihre Praktiken in Bezug auf KI-Kompetenz eingetragen haben. Das Repository wird laufend ergänzt, ist jedoch nicht rechtsverbindlich. Weiters bilden die darin enthaltenen Praktiken keine Garantie zur Compliance mit Art 4 AI Act, allerdings stellen sie eine gute Orientierung dar, welche Maßnahmen zur Sicherstellung von KI-Kompetenz in unterschiedlichen Branchen bereits ergriffen werden. Häufig genannte Praktiken umfassen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne eLearning-Plattformen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne Weiterbildungen und Trainingsprogramme,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Kenntnis-basierte Schulungen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Video-/Podcast-Reihen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;spielebasierte Trainings,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Erstellung von KI-Verhaltenskodizes und Risikobewertungssystemen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;eigene Chatbots zum Training im Umgang mit Sprachmodellen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Denkbar ist überdies die Teilnahme an externen Fortbildungen und Schulungen, die Entwicklung von internen Richtlinien (&amp;quot;KI-Guidelines&amp;quot;) oder die Schaffung von sog &amp;quot;KI-Beauftragten&amp;quot; in der Organisation. Ob die Schulungsmaßnahmen fortlaufend zu erfolgen haben, ist rechtlich nicht vorgeschrieben, wird allerdings anzunehmen sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Dieser Ansicht folgend: &#039;&#039;Siglmüller&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 4 KI-Kompetenz Rz 5.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Ebensowenig sind die genauen Inhalte der Kompetenzvermittlungsmaßnahmen definiert. Es kann jedenfalls davon ausgegangen werden, dass diese zielgruppengerecht und zugeschnitten auf unterschiedliche Bedürfnisse erfolgen sollten. Weiters werden sie sich bei manchen Branchen, KI-Einsatzgebieten oder Personengruppen nicht lediglich auf rechtliche oder technische Anforderungen beschränken, sondern ebenso soziale und ethische Komponenten umfassen. Bei der Entwicklung und Nutzung von GPAI-Modellen wird beispielsweise die Vermittlung von Kenntnissen im Zusammenhang mit Urheberrecht, Datenschutz, &amp;quot;Bias&amp;quot; (Verzerrungen) oder &amp;quot;Halluzinationen&amp;quot; (erfundene falsche Ausgaben) sinnvoll sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger,&#039;&#039; Wissenskultur im KI-Zeitalter – eine Auseinandersetzung mit der KI-Kompetenz nach Art 4 AI Act und ihren praktischen Implikationen, ZIIR 2025, 250.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die EU-Kommission hat darüber hinaus eine [https://digital-strategy.ec.europa.eu/de/faqs/ai-literacy-questions-answers &amp;quot;FAQ-Seite&amp;quot;] mit Fragen und Antworten zur KI-Kompetenz angelegt, um einen besseren Überblick über die Anforderungen zu geben.&amp;lt;/mark&amp;gt;    &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten, &amp;lt;mark&amp;gt;da sie besonders schädlich sind, enormes Missbrauchspotenzial aufweisen und im Widerspruch zu europäischen Grundrechten und Grundfreiheiten stehen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 28 AI Act.&amp;lt;/mark&amp;gt; MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt; (Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt; Folgende Praktiken sind davon umfasst: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Praktik&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Nicht erfasste Praktiken&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsgrundlage&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Unterschwellige Beeinflussung außerhalb des Bewusstseins oder manipulative/täuschende Techniken&#039;&#039;&#039;, wodurch die freie Entscheidungsfähigkeit von Personen beeinträchtigt wird und ein Schaden mit hinreichender Wahrscheinlichkeit eintritt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ableitung sensibler Informationen aus Gehirnen von Nutzern über Maschine-Gehirn-Schnittstellen&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 29 AI Act sowie Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 66.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Chatbots, die zur Selbstverletzung verleiten&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 87.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Unterschwellige visuelle oder auditive Reize bzw generelle sensorische Manipulation&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 65 und 68.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erlaubt ist hingegen der Einsatz eines KI-Systems, das personalisierte Empfehlungen auf der Grundlage transparenter Algorithmen und Nutzerpräferenzen verwendet, und sich nicht absichtlich manipulativer Techniken bedient.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 128.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit a&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Ausnutzen der Vulnerabilität/Schutzbedürftigkeit&#039;&#039;&#039; aufgrund des Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine KI-Begleit-App, die durch gewisse Sprachmuster und Verhaltensweisen gezielt emotionale Abhängigkeiten und ungesunde Bindungen bei älteren Menschen erzeugt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-gestütztes Spielzeug, das Kinder zu riskanten Herausforderungen ermutigt oder durch süchtig machende Techniken zu übermäßigem Spielen anregt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte &amp;quot;Grooming-Praktiken&amp;quot; (gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht), um Mädchen mit Behinderung im Internet anzusprechen und zu manipulieren&amp;lt;ref&amp;gt;Vgl Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 88 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Kinder beim Lernen einer Fremdsprache durch den Einsatz unterschwelliger Techniken unterstützen soll, sofern sie transparent arbeitet und die Nutzerautonomie wahrt.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Benommenheit und Ermüdung bei Fahrern erkennen und sie im Einklang mit den Sicherheitsvorschriften mit Warnmeldungen auf Ruhepausen hinweisen, gelten ebenso nicht als Ausnutzung von Vulnerabilitäten.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 130ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit b&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social scoring&#039;&#039;&#039; (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Verwendung eines KI-Systems zur Schätzung der Betrugswahrscheinlichkeit bei Empfängern von Haushaltszulagen durch das Sozialamt, das sich auf Merkmale stützt, die in sozialen Kontexten ohne offensichtlichen Zusammenhang mit oder Relevanz für die Bewertung von Betrug erhoben oder abgeleitet werden, wie zB ein Ehepartner mit einer bestimmten Staatsangehörigkeit oder ethnischen Herkunft, der Besitz eines Internetanschlusses, das Verhalten auf sozialen Plattformen oder die Leistung am Arbeitsplatz etc.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems durch eine öffentliche Stelle, um für die Früherkennung gefährdeter Kinder anhand von Kriterien wie der psychischen Gesundheit und Arbeitslosigkeit der Eltern, aber auch anhand von aus verschiedenen Kontexten abgeleiteten Informationen über das soziale Verhalten der Eltern Familienprofile zu erstellen. Auf der Grundlage der erzielten Bewertung werden Familien für Kontrollen ausgewählt und als „gefährdet“ geltende Kinder werden aus ihren Familien genommen, unter anderem auch in Fällen geringfügiger Übertretungen seitens der Eltern, wie zB gelegentlich verpasste Arzttermine oder verhängte Verkehrsstrafen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine Regierung führt ein umfassendes KI-gestütztes System ein, das die Bürgerinnen und Bürger auf der Grundlage ihres Verhaltens in verschiedenen Lebensbereichen wie sozialen Interaktionen, Online-Aktivitäten, Kaufgewohnheiten und Pünktlichkeit bei der Begleichung von Rechnungen überwacht und einstuft. Menschen mit einer niedrigeren Bewertung müssen damit rechnen, dass sie eingeschränkten Zugang zu öffentlichen Dienstleistungen erhalten, höhere Zinsen auf Kredite zahlen und auf Reisen und bei der Suche nach einer Wohnung oder sogar einem Arbeitsplatz Schwierigkeiten haben.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 166 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Bonitätsprüfung natürlicher Personen auf Basis persönlicher Merkmale wie dem Einkommen vor Vergabe eines Kredits.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basierte Erhebung von Geschwindigkeitsüberschreitungen oder hochriskantem Fahrverhalten, die zur Erhöhung der KFZ-Versicherungsprämien führen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte gezielte kommerzielle Werbung fällt nicht in den Anwendungsbereich, wenn sie auf relevanten Daten (z. B. Nutzerpräferenzen) beruht, im Einklang mit den Rechtsvorschriften der Union über Verbraucherschutz, Datenschutz und digitale Dienste erfolgt und nicht zu einer Schlechterstellung oder Benachteiligung führt, die in keinem angemessenen Verhältnis zur Tragweite des sozialen Verhaltens des Nutzers steht (z. B. ausbeuterische und unfaire differenzierte Preisgestaltung).&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 177.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit c&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Bewertung des Risikos, dass eine Person eine Straftat&#039;&#039;&#039; begeht (ausschließlich aufgrund von Profiling)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Eine Polizeidienststelle verwendet KI-gestützte Risikobewertungsinstrumente, um das Risiko zu bewerten, dass kleine Kinder und Jugendliche an „künftigen Gewalttaten und Eigentumsdelikten“ beteiligt sein werden. Das System bewertet Kinder auf der Grundlage ihrer Beziehungen zu anderen Menschen und deren vermeintlichen Risikoniveaus, dh es wird eventuell davon ausgegangen, dass bei Kindern ein höheres Risiko für die Begehung von Straftaten besteht, einfach weil sie mit einer anderen Person wie einem Geschwisterkind oder einem Freund verbunden sind, bei der eine hohe Risikobewertung vorliegt. Das Risikoniveau der Eltern kann sich ebenfalls auf das Risikoniveau eines Kindes auswirken.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 202.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Standortbezogene oder geodatenbasierte Vorhersagen oder ortsbezogene Verbrechensvorhersagen (zB KI-System zur Berechnung der Kriminalitätswahrscheinlichkeit in bestimmten Stadtgebieten oder von Schmuggelrouten)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Unterstützung der durch Menschen durchgeführten Bewertung, die sich auf objektive und überprüfbare Tatsachen stützt, die in Zusammenhang mit einer kriminellen Aktivität stehen (zB Profiling zur Vorhersage gefährlichen Verhaltens in einer Menschenmenge, KI-basiertes Profiling von Personen, gegen die bereits ein Verdacht besteht, der auf mehreren überprüfbaren, objektiven Tatsachen beruht).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basiertes Profiling in Bezug auf juristische Personen&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur individuellen Vorhersage von Ordnungswidrigkeiten (zB Bagatellverkehrsdelikte)&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 212 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit d&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erstellung/Erweiterung von &#039;&#039;&#039;Datenbanken&#039;&#039;&#039; zur Gesichtserkennung durch &#039;&#039;&#039;ungezieltes Auslesen von Gesichtsbildern&#039;&#039;&#039;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen für Gesichtserkennungssoftware sammelt Bilder von Gesichtern, die mit einem „automatisierten Bildausleser“, der das Internet durchsucht und Bilder mit menschlichen Gesichtern erkennt, aus sozialen Medien (zB Facebook, X) ausgelesen wurden. Der Bildausleser sammelt diese Bilder mit allen damit verbundenen Informationen (wie der Quelle des Bildes (URL), der Geolokalisierung und manchmal den Namen der einzelnen Personen). Die Gesichtsmerkmale werden dann aus den Bildern extrahiert und in mathematische Darstellungen umgewandelt, die für die Indexierung und den künftigen Vergleich mit Hashtags versehen werden. Wenn ein Nutzer das Bild einer Person in das KI-System hochlädt, wird dieses System bestimmen, ob dieses Bild mit einem Gesicht in der Datenbank übereinstimmt.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 232.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Das ungezielte Auslesen anderer biometrischer Daten als Gesichtsbilder (zB Stimmaufnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Gesichtsbilddatenbanken, die nicht für die Erkennung von Personen verwendet werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Gesichtsbilder aus dem Internet sammeln, um KI-Modelle zur Erzeugung neuer Bilder fiktiver Personen zu entwickeln&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit e&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Emotionserkennungssysteme&#039;&#039;&#039; am Arbeitsplatz oder in Bildungseinrichtungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das beispielsweise aus Gesten, Stirnrunzeln oder fehlendem Lächeln ableitet, dass ein Mitarbeiter unglücklich, traurig oder gegenüber den Kunden wütend ist&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Systeme, die aus Stimmführung oder Körpersprache ableiten, dass ein Schüler zornig und im Begriff ist, gewalttätig zu werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Emotionen aus Tastenanschlägen (Art des Tippens), Gesichtsausdrücken, Körperhaltungen oder Bewegungen ableitet, beruht auf biometrischen Daten und fällt in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die den emotionalen Ton in hybriden Arbeitsteams überwachen, indem sie Emotionen aus Stimm- und Bildaufnahmen hybrider Videokonferenzen erkennen und ableiten, was in Regel der Förderung des sozialen Bewusstseins, des Managements emotionaler Dynamik und der Konfliktverhütung dienen würde&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems bei Online-Prüfungen zur Erkennung von Emotionen wie Erregungs- und Angstzustände&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung zur Bewertung des Wohlbefindens, des Motivationsniveaus und der Arbeits- oder Lernzufriedenheit von Studierenden oder Arbeitnehmern.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der Einsatz von KI-Erkennungssystemen, um auf die Ermüdung eines Berufspiloten oder -fahrers zu schließen, ihn zu warnen und ihm zu empfehlen, zur Vermeidung von Unfällen Pausen einzulegen, da Emotionserkennung keine physischen Zustände wie Schmerzen oder Ermüdung einschließt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das aus schriftlichen Texten (Analysen von Inhalt und Stimmung) Emotionen ableitet, um den Stil oder den Ton eines bestimmten Artikels zu bestimmen, beruht nicht auf biometrischen Daten und fällt daher nicht in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Werden Emotionserkennungssysteme nur zu persönlichen Schulungszwecken eingesetzt, sind sie zulässig, sofern die Ergebnisse nicht Personen mit Personalverantwortung zur Verfügung gestellt werden und keine Auswirkungen auf das Arbeitsverhältnis haben&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die durch eine Bildungseinrichtung erfolgende Verwendung einer KI-gestützten Software zur Verfolgung der Augenbewegungen bei Online-Prüfungen Studierender, um den Fixierungspunkt und die Bewegung der Augen zu verfolgen (um beispielsweise zu erkennen, ob unerlaubtes Material verwendet wird), ist nicht verboten, da das System Emotionen weder erkennt noch ableitet&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung aus medizinischen Gründen zur Unterstützung von Arbeitnehmern oder Studierenden mit Autismus und zur Verbesserung der Barrierefreiheit für blinde oder gehörlose Menschen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit f&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Kategorisierung,&#039;&#039;&#039; Ableitung von sensiblen Daten (religiöse Weltanschauung, politische Einstellung)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Personen, die auf einer Plattform sozialer Medien aktiv sind, nach ihrer angenommenen politischen Ausrichtung kategorisiert, indem es die biometrischen Daten der von ihnen auf die Plattform hochgeladenen Fotos analysiert, um ihnen gezielte politische Nachrichten zu übermitteln&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;ein System zur biometrischen Kategorisierung, das für sich in Anspruch nimmt, die religiöse Ausrichtung einer Person aus ihren Tätowierungen oder ihrem Gesicht ableiten zu können.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 280 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die mit der Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze, auch zu Strafverfolgungszwecken, befasst sind (zB bei Verdacht auf Darstellungen sexuellen Kindesmissbrauchs)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;die Kategorisierung von Patienten, bei der Bilder nach ihrer Haut- oder Augenfarbe verwendet werden, für medizinische Diagnosen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 284 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit g&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Echtzeit-Fernidentifizierungssysteme&#039;&#039;&#039; in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die polizeiliche Verwendung von Systemen zur biometrischen Echtzeit-Fernidentifizierung zu dem Zweck, Ladendiebe zu identifizieren und ihre Gesichtsbilder mit Kriminaldatenbanken zu vergleichen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 328.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung von Echtzeit-Gesichtserkennungstechniken durch die Polizei nach einem schweren Terroranschlag auf einen Weihnachtsmarkt mit zwölf Toten, um den Täter zu identifizieren und festzustellen, wohin er flieht. In diesem Zusammenhang nutzen sie auch die Echtzeit-Gesichtserkennungstechnik des nahe gelegenen Bahnhofs und der Zielbahnhöfe der Züge, die kurz nach dem Angriff von dort abgehen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 354.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit h&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&amp;lt;br /&amp;gt;&lt;br /&gt;
Einige dieser Praktiken sind darüber hinaus bereits nach anderen Rechtsvorschriften verboten, so beispielsweise gewisse manipulative und täuschende Techniken als &amp;quot;dark patterns&amp;quot; nach dem [[Digital Services Act (DSA)|Digital Services Act]] (gilt nur für bestimmte Plattform-Anbieter) oder die Verarbeitung biometrischer Daten zur Identifizierung einer Person nach Art 9 Abs 1 DSGVO, sofern keine der in Abs 2 genannten Ausnahmen vorliegt. Gemäß der neuen Plattformarbeitsrichtlinie&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Richtlinie (EU) 2024/2831 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit, ABl L 11. 11. 2024.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;, die bis Dezember 2026 in nationales Recht umzusetzen ist, ist überdies der Einsatz von automatisierten Überwachungs- und Entscheidungssystemen zur Erfassung personenbezogener Daten über den emotionalen oder psychischen Zustand einer Person (Emotionserkennung) verboten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;MwN &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2024) Art 5 Rz 104.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act klassifiziert Hochrisiko-KI-Systeme in Art 6. Dabei kennt er zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige&amp;quot; Hochrisiko-KI-Systeme bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei folgenden Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder stellt selbst ein solches Produkt dar&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten: bspw biometrische Identifizierung, kritische Infrastrukturen, grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle, Justiz und demokratische Prozesse).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis einer Entscheidungsfindung, an der das System beteiligt ist, wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot; &amp;lt;mark&amp;gt;Als Profiling gilt dabei iSd Art 4 Abs 4 DSGVO jede automatisierte Verarbeitung personenbezogener Daten, die darin besteht, bestimmte persönliche Aspekte einer Person zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, Gesundheit, persönliche Vorlieben, Zuverlässigkeit, Verhalten etc. zu analysieren oder vorherzusagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Europäische Kommission hat im Rahmen von Public Consultations unter anderem auch Rückmeldungen zu Anforderungen an Hochrisiko-KI-Systeme eingeholt, die eine Grundlage für Leitlinien bilden sollen, welche im Februar 2026 veröffentlicht werden sollen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;European Commission, Commission launches public consultation on high-risk AI systems, https://digital-strategy.ec.europa.eu/en/news/commission-launches-public-consultation-high-risk-ai-systems (Stand 6.6.2025).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Pflichten für Betreiber von Hochrisiko-KI-Systemen&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Betreiberpflichten nach Art 26 AI Act&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis &amp;lt;mark&amp;gt;([https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#KI-Kompetenz/AI_literacy_(Art_4_AI_Act) &amp;quot;KI-Kompetenz&amp;quot;] nach Art 4&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 40. &amp;lt;/ref&amp;gt;)&amp;lt;/mark&amp;gt; verfügen und ihnen die erforderliche Unterstützung zukommen lassen. &lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von automatisiert erzeugten &#039;&#039;&#039;Protokollen&#039;&#039;&#039; &amp;lt;mark&amp;gt;für einen Zeitraum von zumindest 6 Monaten (wobei hier entgegenstehende datenschutzrechtliche Regelungen vorgehen würden&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 42.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;)&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, vor Verwendung oder Inbetriebnahme des Hochrisiko-KI-Systems am Arbeitsplatz. &amp;lt;mark&amp;gt;Dies umfasst sowohl den Einsatz von &amp;quot;eingebetteten&amp;quot; als auch &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Weiters sind die Mitwirkungspflichten des Betriebsrats zu berücksichtigen (vgl §§ 96 f ArbVG). Nicht umfasst sind wahrscheinlich Informationspflichten gegenüber Bewerbern, da diese tendenziell nicht unter den von dieser Bestimmung geforderten &amp;quot;Arbeitnehmer-Begriff&amp;quot; fallen&amp;lt;/mark&amp;gt;.&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet. &amp;lt;mark&amp;gt;Diese Bestimmung gilt lediglich für den Einsatz von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen nach Art 6 Abs 2 iVm Anhang III.Die danach mitzuteilende Information sollte die Zweckbestimmung und die Art der getroffenen Entscheidung beinhalten (vgl ErwGr 93) sowie - nach einer hier vertretenen Auffassung - eine vorab Information über das Recht auf Erklärung nach Art 86 AI Act, welches von KI-Entscheidungen Betroffenen das Recht zugesteht, unter gewissen Voraussetzungen vom Betreiber eine klare und aussagekräftige Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess sowie zu den wichtigsten Elementen der getroffenen Entscheidung zu erhalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe die entsprechende Argumentationslinie im Detail: &#039;&#039;Research Institute&#039;&#039;, Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025) 100 ff, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.  &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 27 Abs 4 macht überdies die Verzahnung der Grundrechte-Folgenabschätzung (GRFA) mit anderen Folgenabschätzungen deutlich und schreibt bspw vor, dass bei Vorliegen einer Datenschutz-Folgenabschätzung nach Art 35 DSGVO die GRFA diese ergänzen bzw in diese integriert werden solle.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Piltz/Zwerschke&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 27 Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme Rz 32.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Sowohl die Verpflichtungen nach Art 26 als auch die Durchführung einer GRFA nach Art 27 treffen den Betreiber unabhängig davon, ob jemand (bspw Betroffene) deren Einhaltung einfordern. Im Unterschied dazu enthält der AI Act in den Artt 85 ff sog &amp;quot;Betroffenenrechte&amp;quot;, die aktiv von betroffenen Personen geltend zu machen sind. Dazu zählt insbesondere das [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Recht auf Erklärung nach Art 86], welches das einzige Betroffenenrecht darstellt, das direkt gegen den Betreiber durchsetzbar ist.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführer oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn die genannten Personen ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen;&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt;&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das &#039;&#039;nicht&#039;&#039; als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird.&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter (Erstanbieter) nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat jedoch mit dem neuen Anbieter zusammenzuarbeiten, insb Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI Act muss beachtet werden, dass die Rollenverteilung eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters erfolgt, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden &amp;lt;mark&amp;gt;sowie den Anforderungen an die Barrierefreiheit genügen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots, &amp;lt;mark&amp;gt;Sprachassistenten, Social Bots)&amp;lt;/mark&amp;gt;, sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Pflicht kann entfallen, wenn die Interaktion mit dem KI-System aus Sicht einer angemessen informierten, aufmerksamen und verständigen Person offensichtlich ist oder beim Einsatz von KI-Systemen, die für die Strafverfolgung zugelassen sind.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 43.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
*&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 40.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Chatbots&#039;&#039;&#039; können durch einen textlichen Hinweis zu Beginn des Gesprächs oder ein dauerhaft angezeigtes grafisches Symbol vorgestellt werden.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Bei &#039;&#039;&#039;Voicebots&#039;&#039;&#039; kommt eine der Interaktion vorausgehende Ansage, welche auf den KI-Einsatz hinweist, in Betracht.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social Bots&#039;&#039;&#039; können eine Information vor und mit jeder Interaktion des Bots in sozialen Netzwerken erfordern, da das System stets mit einem neuen Personenkreis in Interaktion tritt (zB AI-Influencer).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Das KI-Büro hat am 5. November 2025 Arbeiten an einem Verhaltenskodex in Bezug auf die Kennzeichnung von KI-generierten Inhalten aufgenommen. Die entsprechenden Leitlinien werden in einem siebenmonatigen Prozess, der sich insbesondere durch die Einbindung von relevanten Stakeholdern und öffentliche Konsultationen auszeichnen soll, erarbeitet werden. Näheres unter: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Mögliche Methoden wären bspw Wasserzeichen, Metadatenidentifizierungen, Kryptografische Methoden (zB &amp;quot;Hashing&amp;quot;), Protokollierungsmethoden oder Fingerabdrücke.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 133 Satz 4 sowie mwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 84 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Denkbar ist bspw eine Umsetzung in Form eines sichtbaren Wasserzeichens, eines textlichen Hinweises, durch Hinzufügen von sog C2PA-Content Credentials&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Die C2PA („Coalition forContent Provenanceand Authenticity“) ist ein branchenübergreifendes Non-profit-Projekt, das die Entwicklung gemeinsamer technischer Standards zur Ermittlung der Herkunft von digitalen Inhalten zum Ziel hat. Siehe dazu https://c2pa.org/. So hat sich bspw LinkedIn bei der Erkennung KI-generierter Inhalte diesen Standards unterworfen: https://www.linkedin.com/help/linkedin/answer/a6282984. MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 150.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;oder bei Audioinhalten durch eine Ansage zu Beginn des Audioinhalts.&amp;lt;ref&amp;gt;&#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 148 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Verpflichtung entfällt, wenn die betreffenden Inhalte vor ihrer Veröffentlichung einer menschlichen oder redaktionellen Kontrolle unterzogen wurden und eine Person die redaktionelle Verantwortung dafür trägt. Da die Anforderungen an die menschliche bzw redaktionelle Kontrolle nicht konkretisiert werden, unterwerfen sich bspw im journalistischen Bereich zahlreiche Medien freiwilligen Leitlinien (so etwa die [https://www.blm.de/files/pdf2/ki-leitlinien.pdf Leitlinien des Medienrats der Bayerischen Landeszentrale für neue Medien (BLM) zum Einsatz von Künstlicher Intelligenz im Journalismus]).&amp;lt;ref&amp;gt;MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 163 f.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als &amp;quot;KI-Systeme mit minimalem Risiko&amp;quot; bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf den sprunghaften Durchbruch generativer KI-Modelle, die für viele verschiedene Zwecke eingesetzt werden können, in den Jahren 2022 und 2023 wurden unter Durchbrechung des bisherigen zweck- und risikoorientierten Regelungsansatzes im Entwurfsstadium des AI Act nachträglich Regeln für solche Modelle eingefügt. Diese sind seit 2. August 2025 in Geltung. Ein GPAI-Modell (in früheren Entwurfsfassungen foundation model/Basismodell) ist dabei in Art 3 Z 63 AI Act definiert als ein KI-Modell, das&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;das eine erhebliche allgemeine Verwendbarkeit aufweist,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;In den von der EU-Kommission im Juli 2025 veröffentlichten Leitlinien zu GPAI-Modellen werden eine kumulierte Menge der für das Training verwendeten Berechnungen gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; von mehr als 10&amp;lt;sup&amp;gt;23&amp;lt;/sup&amp;gt; und die Fähigkeit, geschriebene oder gesprochene Sprache (aber auch Bilder oder Videos aus Text) zu generieren, als Anhaltspunkte für das Vorliegen eines GPAI-Modells angegeben, es sei denn, das Modell erfüllt die oben angegebenen Kriterien der Allgemeinheit nicht (zB weil es spezifisch nur für die Transkription von Sprache in Text trainiert wurde).&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 13 ff.&amp;lt;/ref&amp;gt; Somit ist davon auszugehen, dass die üblichen [https://de.wikipedia.org/wiki/Large_Language_Model LLM]s, wie die GPT-Serie von OpenAI, die Gemini-Serie von Google oder die Claude-Serie von Anthropic als GPAI-Modelle im Sinne dieser Definition einzustufen sind.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt.&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Abgrenzung der Rollen entlang der Wertschöpfungskette&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&amp;lt;mark&amp;gt;In Bezug auf GPAI-Modelle können (anknüpfend an die allgemeinen Rollendefinitionen des AI Act) folgende Rollen unterschieden werden:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Anbieter (Providers) von GPAI-Modellen:&#039;&#039;&#039; Entwickeln ein GPAI-Modell oder lassen es entwickeln und bringen es ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr oder nehmen es unter ihrem eigenen Namen oder ihrer Handelsmarke in Betrieb, sei es entgeltlich oder unentgeltlich (Art 3 Z 3 AI Act);&amp;lt;ref name=&amp;quot;:3&amp;quot;&amp;gt;Vgl Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 72 ff.&amp;lt;/ref&amp;gt; sie treffen primär die nachfolgend beschriebenen Pflichten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Modifizierer (Downstream Modifiers) von GPAI-Modellen&#039;&#039;&#039;: Fine-tunen/modifizieren&amp;lt;ref&amp;gt;Vgl ErwGr 97 Satz 5.&amp;lt;/ref&amp;gt; bestehende GPAI-Modelle anderer Anbieter; laut der Kommission ist nicht jeder Modifizierer dadurch gleich als Anbieter des modifizierten GPAI-Modells anzusehen, dies jedoch dann, wenn die Modifikation des GPAI-Modells zu einer wesentlichen Änderung der Universalität, der Leistungsfähigkeit oder des systemischen Risikos des GPAI-Modells führt, wobei als Indiz dafür gilt, dass die Anzahl der Berechnungen für die Modifikation ein Drittel jener für das Training des ursprünglichen GPAI-Modells übersteigt.&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 60 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Anbieter (Downstream Providers) von KI-Systemen:&#039;&#039;&#039; Integrieren GPAI-Modelle in KI-Systeme; ein wesentlicher Zweck der Regulierung von GPAI-Modellen ist, dass nachgelagerte Anbieter, ein GPAI-Modell in ihr KI-System integrieren, Informationen über dieses Modell erhalten und darauf basierend ihren eigenen Verpflichtungen (nach den allgemeinen Regeln des AI Act für KI-Systeme) nachkommen zu können.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Betreiber (Deployers):&#039;&#039;&#039; Verwenden ein KI-System im praktischen Einsatz.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme der Hauptgegenstand der Regulierung durch den AI Act sind (risikobasierten Ansatz), unterliegen auf Ebene der Modelle nur GPAI-Modelle einer direkten Regulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese Regulierung unterscheidet zwischen GPAI-Modellen ohne und GPAI-Modellen mit systemischem Risiko. Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act), &lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über &amp;quot;Fähigkeiten mit hohem Wirkungsgrad&amp;quot; verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; FLOPs beträgt.&amp;lt;ref&amp;gt;Zur Berechnung dieser Maßzahl siehe Annex der Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 117 ff.&amp;lt;/ref&amp;gt; Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act). Oder&lt;br /&gt;
* wenn die Kommission in einer Entscheidung festgestellt hat, dass es über solche Fähigkeiten oder eine solche Wirkung verfügt (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 Abs 1 AI Act):&lt;br /&gt;
&lt;br /&gt;
# eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden&lt;br /&gt;
# Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
# eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
# eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Pflichten 1 und 2 &amp;quot;gelten nicht für Anbieter von KI-Modellen, die im Rahmen einer freien und quelloffenen Lizenz bereitgestellt werden, die den Zugang, die Nutzung, die Änderung und die Verbreitung des Modells ermöglicht und deren Parameter, einschließlich Gewichte, Informationen über die Modellarchitektur und Informationen über die Modellnutzung, öffentlich zugänglich gemacht werden. Diese Ausnahme gilt nicht für KI-Modellen [sic!] mit allgemeinem Verwendungszweck mit systemischen Risiken.&amp;quot; (Art 53 Abs 2 AI Act) In den Leitlinien der Kommission ist die (strenge) Auslegung der einzelnen Kriterien dieser Definition ausführlich dargelegt.&amp;lt;ref name=&amp;quot;:3&amp;quot; /&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 Abs 1 AI Act):&lt;br /&gt;
&lt;br /&gt;
# eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
# mögliche systemische Risiken auf Unionsebene bewerten und mindern&lt;br /&gt;
# einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
# ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung des AI Act beitragen sollen.&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von GPAI-Modellen sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 56 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 10. Juli 2025 wurde der Praxisleitfaden &amp;quot;[https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai General-Purpose AI Code of Practice]&amp;quot; veröffentlicht und von der EU-Kommission und vom KI-Gremium am 1. August 2025 gem Art 56 Abs 6 AI Act als angemessen bewertet.&amp;lt;ref&amp;gt;Europäische Kommission, Erstellung eines allgemeinen KI-Verhaltenskodex, https://digital-strategy.ec.europa.eu/de/policies/ai-code-practice.&amp;lt;/ref&amp;gt; Zu diesem wurde auch eine [https://digital-strategy.ec.europa.eu/de/faqs/questions-and-answers-code-practice-general-purpose-ai FAQ-Seite] veröffentlicht. Auch ein [https://ec.europa.eu/newsroom/dae/redirection/document/118118 Musterdokumentationsformular für Modelle] ist Teil des GPAI Code of Practice. Zusätzlich hat die EU-Kommission am 18. Juli 2025 auch [https://ec.europa.eu/newsroom/dae/redirection/document/118340 Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act] veröffentlicht.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Für Anbieter von GPAI-Modellen, die den GPAI Code of Practice unterzeichnen und diesen einhalten, können dadurch nachweisen, dass sie ihre Pflichten nach Art 53 Abs 1 und Art 55 Abs 1 AI Act erfüllen.&amp;lt;ref&amp;gt;Vgl Art 50 Abs 7 und Art 53 Abs 4 AI Act, Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 94 sowie Europäische Kommission, Der General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/de/policies/contents-code-gpai.&amp;lt;/ref&amp;gt; Damit sollen Rechtssicherheit geschaffen sowie Compliance und Vollzug vereinfacht werden. Es handelt sich dabei aber um eine freiwillige Maßnahme und es steht Anbietern von GPAI-Modellen somit frei, die entsprechenden Bestimmungen des AI Act auch auf andere Weise umzusetzen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Auf der oben verlinkten Website des GPAI Code of Practice ist angegeben, welche Anbieter von GPAI-Modellen diesen unterzeichnet haben. Darunter finden sich die meisten Anbieter der gängigen LLMs, wie Anthropic, Google, OpenAI und Mistral AI.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Stand November 2025 wurde in Österreich noch keine Behörde als zuständige Marktüberwachungsbehörde eingerichtet oder benannt. Bereits mit 2. November 2024 sind jedoch einige Behörden und öffentliche Stellen im Grundrechtsbereich gemäß Art 77 Abs 2 mit Aufsichts- und Durchsetzungsbefugnissen für Grundrechte insb im Zusammenhang mit Hochrisiko-KI ausgestattet worden, darunter die Volksanwaltschaft, die Datenschutzbehörde, die Arbeiterkammer, die Gleichbehandlungskommission, die Behindertenanwaltschaft, die KommAustria uvm.&amp;lt;ref&amp;gt;Mehr dazu unter: https://www.digitalaustria.gv.at/themen/kuenstliche-intelligenz/behoerden-art77-ai-act.html.&amp;lt;/ref&amp;gt; Dabei treffen auch die (künftig) zuständige Marktüberwachungsbehörde umfassende Kooperationspflichten, wie etwa die Meldung schwerwiegender Grundrechtsvorfälle in diesem Kontext an die genannten Einrichtungen (vgl Art 73 Abs 7 und Art 79 Abs 2 AI Act).&amp;lt;ref&amp;gt;Vgl &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 103, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Dazu hat die Kommission entsprechende Leitlinien zu veröffentlichen, die sich gerade in Ausarbeitung befinden.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung im Einzelfall betroffen sind,&lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (&amp;lt;mark&amp;gt;Recht auf Erläuterung der Entscheidungsfindung im Einzelfall gemäß Art 86 Abs 1 AI Act oder auch gemeinhin als &#039;&#039;&#039;&amp;quot;Recht auf Erklärung&amp;quot;&#039;&#039;&#039; bezeichnet&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157; &#039;&#039;Poindl/Müller,&#039;&#039; Das Recht auf Erklärung im AI Act. Betroffenenrecht mit Potenzial oder Papiertiger?, VbR 2025, 40. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei ist es unerheblich, ob das KI-System die Entscheidung gänzlich autonom getroffen hat oder unterstützend beteiligt war, es darf lediglich keine untergeordnete Rolle im Entscheidungsprozess gespielt haben.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Steht das Recht auf Erklärung zu, hat die betroffene Person einerseits das Recht, eine Erklärung über die Rolle des KI-Systems im Entscheidungsprozess zu verlangen, worunter einerseits Informationen über die zentralen Aufgaben des Systems im Entscheidungsprozess fallen (zB Zielgruppenselektion, Datenanalyse, Vorgabe der Entscheidung usw.) und andererseits auch der Grad dessen Beteiligung (gering, mittel, hoch), was umgekehrt auch den Grad menschlicher Beteiligung an der Entscheidungsfindung erfordert. Weiters sind die wichtigsten Elemente der Entscheidung zu beauskunften, beispielsweise Eingabedaten, wesentliche Entscheidungsgründe, kontrafaktische Erklärungen (inwiefern hätten andere Parameter zu einer anderen Entscheidungen geführt), die Auswirkungen der Entscheidung, die Gewichtung der einzelnen Kriterien und die Verarbeitungslogik (Informationen über die grobe Funktionsweise des KI-Systems, keine komplette Offenlegung des algorithmischen Codes). Weiters muss die Erklärung präzise, korrekt, verständlich, nicht zu technisch (keine komplexen mathematischen Formeln), aber dennoch vollständig sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letzter Referenzpunkt ist stets, ob die betroffene Person auf Basis der erlangten Informationen weitere Rechte geltend machen kann, da das Recht auf Erklärung auch oft als &amp;quot;Türöffner&amp;quot; für die Geltendmachung weiterer Rechte dient (so wird bspw eine Klage wegen Diskriminierung in einem Entscheidungsprozess erst erhoben werden können, wenn die betroffene Person genügend Informationen hat, um die Diskriminierung darzulegen, bspw die Gewichtung von bestimmten persönlichen Merkmalen, die ausschlaggebend für die Entscheidung war).&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Es handelt sich somit um ein nachgelagertes bzw &#039;&#039;ex post&#039;&#039; Recht, das nicht nur globale, abstrakte Systemerklärungen erfordert, sondern auch lokale, einzelfallbezogene Auskünfte umfasst, damit die betroffene Person die Informationen wirksam nutzbar machen kann .&amp;lt;/mark&amp;gt; Das Recht auf Erklärung steht Betroffenen gegenüber Betreibern und nicht gegenüber Anbietern zu, wobei letztere wiederum Betreibern entsprechende Betriebsanleitungen bereitzustellen haben (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung gilt nicht, sofern Ausnahmen nach Unionsrecht oder nationalem Recht bestehen (Art 86 Abs 2). Zu denken wäre hier etwa an Beschränkungen der Informationspflicht aufgrund geschützter Betriebs- oder Geschäftsgeheimnisse, wobei diese nicht zu einer pauschalen Auskunftsverweigerung führen dürfen.&amp;lt;/mark&amp;gt; Art 86 Abs 1 gilt überdies nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung Subsidiarität] ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung ist immer dann relevant, wenn Unternehmen, Behörden etc. KI in Entscheidungsfindungsprozessen einsetzen, die Auswirkungen auf bestimmte Personen(-gruppen) haben. Zu denken ist etwa an KI-basierte Entscheidungen über die Vergabe von Krediten, über die Berücksichtigung einer Bewerbung, über die Höhe einer Versicherungsprämie oder personalisierte Werbeschaltungen auf Basis von Emotionserkennung.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zum Umgang mit dem Recht auf Erklärung in der Praxis hat das &#039;&#039;Research Institute&#039;&#039; im Auftrag des Bundesministeriums für Arbeit, Soziales, Gesundheit, Pflege und Konsumentenschutz Leitlinien entwickelt:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:f1685e43-21b8-48f3-9fe5-2c61898960ae/Final_Aufkl%C3%A4rung%204.0_Unternehmensleitfaden_April2025.pdf Leitfaden für Unternehmen] im Umgang mit Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:40ba630c-39af-4b8d-8768-a69192427b09/Final_Aufkl%C3%A4rung%204.0_Konsumentinnenleitfaden_April2025.pdf Leitfaden für Konsument:innen und ihre Interessenvertretungen] zur Durchsetzung ihrer Rechte&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf Theoretischer Grundlagenbericht] zur wissenschaftlichen Fundierung der ausgesprochenen Empfehlungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Europäische Komitee für Normung (CEN) und das Europäische Komitee für elektrotechnische Normung (cenelec) wurden mittels Durchführungsbeschluss aufgefordert, bis zum 30. April 2025 bestimmte angeführte Normen auzuarbeiten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/growth/tools-databases/enorm/mandate/593_en&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Der ursprüngliche Zeitplan konnte nicht eingehalten werden und es erfolgte eine neuerliche Fristverlängerung mittels eines neuerlichen Durchführungsrechtsaktes.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl Commisson Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation as regards high-risk AI-systems in support of Regulation (EU) 2024/1689 of the European Parliament and of the Council and repealing Implementing Decision C(2023)3215 &amp;lt;nowiki&amp;gt;https://ec.europa.eu/transparency/documents-register/detail?ref=C(2025)3871&amp;amp;lang=en&amp;lt;/nowiki&amp;gt;&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Seit November 2025 liegt der erste Entwurf einer harmonisierten Norm zum Qualitätsmanagement &amp;quot;EprEN 18286, Artificial intelligence – Quality management system for EU AI Act regulatory purposes nach Art 17 AI Act zur öffentlichen Kommentierung vor.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://adamleonsmith.substack.com/p/pren-18286&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Konsultation zu diesem Normentwurf läuft bis zum 22. Jänner 2026. In den kommenden Monaten sollen weitere Normentwürfe folgen – unter anderem zu Risikomanagement, Cybersicherheit, Vertrauenswürdigkeit und Konformitätsbewertung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zudem verabschiedenen CEN/cenelec im Oktober 2025 ein Maßnahmenpaket, um die Fertigstellung wichtiger Normen, die im Rahmen von CEN-CLC/JTC 21 „Künstliche Intelligenz” entwickelt wurden, sowie der im Rahmen des Normungsantrags M/593 (und seiner Änderung M/613) geforderten Ergebnisse zu beschleunigen. Diese Maßnahmen betreffen eine Reihe von Arbeitspunkten, die die technische Grundlage für die künftigen europäischen Normen zur Unterstützung des KI-Gesetzes bilden. Die Vorstände kamen überein, im Falle einer positiven Abstimmung über die Anfrage die direkte Veröffentlichung der Entwürfe ohne separate formelle Abstimmung zuzulassen und CEN-CLC/JTC 21 zu beauftragen, eine kleine Redaktionsgruppe aus bereits aktiven Experten einzurichten, um sechs der am stärksten verzögerten Entwürfe fertigzustellen, bevor sie den jeweiligen Arbeitsgruppen zur Information und für abschließende Kommentare vorgelegt werden.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://www.cencenelec.eu/news-events/news/2025/brief-news/2025-10-23-ai-standardization/&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf die verzögerten Standards im Entwurf Digital Omnibus on AI Regulation Proposal&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;bestimmte Maßnahmen vorgeschlagen, um eine zeitnahe, reibungslose und verhältnismäßige Umsetzung bestimmter Bestimmungen des AI-Acts sicherzustellen. Als eine Maßnahme wurde dabei die Kopplung des Zeitplans für die Umsetzung der Vorschriften für hohe Risiken an die Verfügbarkeit von Normen vorgeschlagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Grundlegende Überschneidungen zwischen dem AI Act und der Datenschutz-Grundverordnung (DSGVO)&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Da KI-Systeme bzw -Modelle häufig personenbezogene Daten verarbeiten - bspw im Rahmen des Trainings eines KI-Modells oder zur Entscheidungsunterstützung in Bezug auf konkrete Personen -, stellt sich unweigerlich die Frage nach dem Zusammenwirken des AI Act mit der DSGVO.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Der Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA) des LfDI Baden-Württemberg enthält eine Auswahl von Orientierungshilfen verschiedener Aufsichtsbehörden und Gremien zu den Schnittstellen von DSGVO und KI: https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0. MwN &#039;&#039;Holtz/Ledendal,&#039;&#039; AI Data Governance - Overlaps Between the AI Act and the GDPR (iE, 2026): https://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1996843&amp;amp;dswid=-4177 sowie der [https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/DE-Bridge-Blueprint-v.0.9.pdf &amp;quot;Bridge Blueprint&amp;quot;-Entwurf] zur einheitlichen Anwendung von Datenschutz- und KI-Regulierung des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI).&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letztere knüpft ihren Anwendungsbereich nämlich an die Verarbeitung personenbezogener Daten iSd Art 4 Abs 1 DSGVO, worunter alle Informationen zu verstehen sind, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Die DSGVO ist seit 2018 in Anwendung und verfolgt den Grundsatz, dass jegliche Verarbeitung personenbezogener Daten verboten ist, es sei denn, es liegt ein Erlaubnistatbestand nach Art 6 Abs 1 DSGVO vor. Für die Verarbeitung sog &amp;quot;sensibler Daten&amp;quot; nach Art 9 DSGVO (zB Gesundheitsdaten, die ethnische Herkunft, die religiöse Weltanschauung etc.) legt sie noch strengere Maßstäbe an. Damit verfolgt die DSGVO einen horizontalen sowie prinzipienbasierten Ansatz, wonach bei der Verarbeitung personenbezogener Daten bestimmte Anforderungen und Grundsätze einzuhalten sind, ungeachtet der verwendeten Technologie, des Sektors oder des Einsatzgebiets.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 32, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus orientiert sich die Verordnung daran, inwieweit eine bestimmte Datenverarbeitung ein Risiko für die Rechte und Freiheiten natürlicher Personen darstellt (&amp;quot;risikobasierter Ansatz&amp;quot;), wonach sich letztendlich die Strenge der von ihr vorgeschriebenen Verpflichtungen bemisst.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Der AI Act erkennt das Primat der DSGVO in Art 2 Abs 7 an und statuiert, dass er deren Anwendungsbereich unberührt lässt. Somit gehen im Falle der Verarbeitung personenbezogener Daten durch eine KI-Anwendung die Regelungen der DSGVO grundsätzlich vor, während der AI Act dem ergänzend eine produktsicherheitsrechtliche Komponente beifügt, die während der Entwicklung und des Einsatzes von KI zu beachten ist.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 33, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Überschneidungen beider Rechtsakte ergeben sich bspw, sobald ein KI-Modell mit personenbezogenen Daten &#039;&#039;&#039;trainiert&#039;&#039;&#039; werden soll. In diesem Fall braucht es eine Rechtsgrundlage nach Art 6 Abs 1 DSGVO (und ggf Art 9 DSGVO), wobei hier am ehesten die berechtigten Interessen des Verantwortlichen nach lit f leg cit infrage kommen. So hat sich bspw der Facebook-Mutterkonzern Meta auf berechtigte Interessen berufen, um sein Sprachmodell &amp;quot;LLaMA&amp;quot; hinter seiner &amp;quot;Meta AI&amp;quot; mit Nutzerdaten zu trainieren. Dagegen erhob die Verbraucherschutzzentrale NRW Antrag auf Erlass einer einstweiligen Verfügung, letztendlich entschied jedoch das OLG Köln in seinem Beschluss vom 23.05.2025 (15 UKl 2/25), dass sich Meta für das KI-Training mit Nutzerdaten auf berechtigte Interessen stützen könne.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://www.verbraucherzentrale.nrw/urteilsdatenbank/digitale-welt/olg-koeln-weist-eilantrag-der-verbraucherzentrale-nrw-gegen-meta-wegen-kitraining-zurueck-108065.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Umgekehrt ist laut Art 35 DSGVO immer dann eine Datenschutz-Folgenabschätzung durchzuführen, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat, insbesondere bei Verwendung neuer Technologien. Darunter fallen gemäß §2 Abs 2 Z 4 DSFA-V&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Verordnung der Datenschutzbehörde über Verarbeitungsvorgänge, für die eine Datenschutz-Folgenabschätzung durchzuführen ist (DSFA-V), BGBl. II Nr. 278/2018.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;insbesondere Datenverarbeitung unter Einsatz von künstlicher Intelligenz, welcher jedenfalls die Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung nach sich zieht. Somit löst auch der Einsatz von KI unter gewissen Voraussetzungen datenschutzrechtliche Pflichten aus.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: Digital Services Act (DSA) vs AI Act ===&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der DSA legt einheitliche Regeln für Vermittlungsdienste mit dem Ziel fest, ein vertrauenswürdiges, (rechts-)sicheres und vorhersehbares Online-Umfeld für Verbraucher und Unternehmen durch eine harmonisierte Plattformregulierung zu gewährleisten. Ebenso zielt das Regelwerk auf den Schutz sowie die Gewährleistung einer effektiven Grundrechtsausübung und normiert umfassende Verpflichtungen für Anbieter von Online-Diensten in Form eines abgestuften Regelungsansatzes, der die unterschiedlichen Compliance-Pflichten an die Art und Größe der jeweiligen Online-Dienste knüpft. Dabei kennt der DSA folgende Anbieterkategorien: Anbieter von allgemeinen Vermittlungsdiensten, Hostingdiensten, Online- sowie Transaktionsplattformen und sehr großen Online-Plattformen (VLOPs) und -Suchmaschinen (VLOSEs). Überschneidungen mit dem AI Act können sich auf zweierlei Weise ergeben: Einerseits können KI-Anwendungen zur Generierung oder Manipulation von Inhalten verwendet werden, die dann über Vermittlungsdienste geteilt werden. Andererseits können KI-Systeme das Kernangebot des Diensteanbieters ausmachen, in der Inhaltsmoderation eingesetzt werden oder Produkt- bzw Service-Empfehlungen auf Basis von Nutzerverhalten (&amp;quot;Empfehlungsalgorithmen&amp;quot;) schalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 48, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Allgemeine Synergien sind dem [[Digital Services Act (DSA)|Eintrag über den DSA]] zu entnehmen.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
* Weiters kann es bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act in Bezug auf die notwendige Risikoanalyse kommen. &amp;lt;mark&amp;gt;So fordern die Artikel 34 und 35 DSA die Analyse jener potenzieller systemischer Risiken, die sich durch das Design, die Funktion oder die Nutzung ihrer Services ergeben, insbesondere im Zusammenhang mit algorithmischen Systemen oder Systemen zur Inhaltsmoderation. Demgegenüber legt der AI Act in Art 17 die Verpflichtung für Anbieter von Hochrisiko-KI-Systemen zur Etablierung eines Risikomanagementsystems gemäß Art 9 AI Act fest und sieht spezielle Anforderungen für Anbieter von GPAI-Modellen mit systemischem Risiko vor (Art 55 Abs 1 lit b AI Act).&amp;lt;/mark&amp;gt; Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Im Fall von Anbietern von Hochrisiko-KI-Systemen sieht der AI Act sogar explizit die Möglichkeit vor, Risikomanagementprozesse nach anderen unionsrechtlichen Bestimmungen mit jenen nach dem AI Act zu kombinieren (vgl Art 9 Abs 10 AI Act).&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 49, &amp;lt;nowiki&amp;gt;https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Art 86 AI Act normierte Recht auf Erläuterung] besteht potentiell eine Subsidiarität gegenüber anderen Auskunftsansprüchen, insb der Auskunftspflicht nach Art 15 Abs 1 lit h DSGVO iVm Art 22 DSGVO. &amp;lt;mark&amp;gt;Demnach steht Personen, die von einer automatisierten Entscheidungsfindung im Einzelfall einschließlich Profiling betroffen sind, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie ähnlich erheblich beeinträchtigt, das Recht zu, neben allgemeinen Informationen über die Verarbeitung ihrer personenbezogenen Daten aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und Auswirkungen einer derartigen Verarbeitung zu verlangen. Inhaltlich&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;richtet sich der Auskunftsanspruch nach Art 15 Abs 1 lit h DSGVO gemäß rezenter EuGH-Judikatur insb auf die Erläuterung des Verfahrens und der Grundsätze, die bei der automatisierten Verarbeitung der personenbezogenen Daten der betroffenen Person zur Anwendung kamen und zu dem bestimmten Ergebnis geführt haben.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117, Rz 58. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Frage nach einer potenziellen Subsidiarität von Art 86 AI Act gegenüber den entsprechenden datenschutzrechtlichen Vorschriften hängt von unterschiedlichen Fallszenarien ab, in denen die jeweils verwendeten Technologien und verarbeiteten Datenkategorien zu unterschiedlichen Ergebnissen führen können:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 15 Abs 1 lit h iVm Art 22 DSGVO&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsfolge&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Hochrisiko-KI-Einsatz in Entscheidungsfindungsprozessen, in denen entweder keine personenbezogenen Daten gemäß Art 4 Z 1 DSGVO verarbeitet werden (zB Verarbeitung lediglich aggregierter Daten) oder keine vollautomatisierte Entscheidung iSd Art 22 DSGVO getroffen wird (etwa weil ein Mensch maßgeblich an der Entscheidungsfindung beteiligt ist)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Das Recht auf Erklärung steht vollumfänglich wie in Art 86 Abs 1 dargelegt zu (bei Vorliegen der übrigen Voraussetzungen). Der betroffenen Person sind somit klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess und zu den wichtigsten Elementen der getroffenen Entscheidung zu übermitteln, wobei die Erklärung einzelfallbezogen und auf das konkrete Ergebnis gerichtet sein muss. Der Anwendungsbereich von Art 15 (Abs 1 lit h iVm Art 22) DSGVO ist hingegen nicht eröffnet. Das Recht, die Entscheidung anzufechten, steht - zumindest gemäß AI Act - nicht zu.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Es findet eine vollautomatisierte Entscheidungsfindung auf Basis der Verarbeitung personenbezogener Daten statt, allerdings ohne Beteiligung eines Hochrisiko-KI-Systems iSd Art 6 Abs 2 iVm Anhang III AI Act (bspw wird die Entscheidung durch einen herkömmlichen Algorithmus getroffen, der Anforderungen an ein KI-System nach Art 3 Z 1 AI Act nicht erfüllt oder das KI-System fällt nicht in den Hochrisiko-KI-Bereich)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Auskunftsanspruch gemäß Art 15 (Abs 1 lit h iVm Art 22) DSGVO steht bei Vorliegen der übrigen Voraussetzungen zu, während das Recht auf Erklärung nach Art 86 AI Act keine Anwendung findet. Es sind der betroffenen Person somit Informationen über die involvierte Logik, Tragweite und Auswirkungen der Entscheidung zu übermitteln, wobei Informationen über die Rolle des eingesetzten Systems nicht darunter fallen. Im Unterschied zu Art 86 AI Act ist in Bezug auf Art 15 Abs 1 lit h DSGVO jedoch noch unklar, ob auch eine Verpflichtung zu einer einzelfallbezogenen Begründung der konkret erzielten Ergebnisse besteht, die über eine abstrakte/allgemeine Erklärung hinausgeht.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl etwa das EuGH-Urteil in der RS Dun &amp;amp; Bradstreet, welches stärker auf das lokale Element, dh die Einzelentscheidung, abzustellen scheint (EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117). MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 71, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Art 22 Abs 3 DSGVO enthält jedoch im Gegensatz zum AI Act das Recht, die Entscheidung anzufechten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Verarbeitung personenbezogener Daten im Rahmen der Entscheidungsfindung, Einsatz eines Hochrisiko-KI-Systems, vollautomatisierte Entscheidungsfindung&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Anspruch nach Art 86 AI Act tritt ergänzend zu jenem nach der DSGVO hinzu und richtet sich auf jene Informationen, die nach Art 15 DSGVO nicht zu beauskunften sind (bspw die Rolle des KI-Systems im Entscheidungsprozess sowie jedenfalls einzelfallbezogene, lokale Erklärungen). Es handelt sich somit um eine sog &amp;quot;Lückenfüller-Position&amp;quot; von Art 86 AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Ansicht folgend und mwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 96 ff, &amp;lt;nowiki&amp;gt;https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;mark&amp;gt;In der Regel werden Betroffene in der Praxis wohl beide Ansprüche gleichzeitig geltend machen. Dies ist allerdings nur möglich, sofern beide Ansprüche auch gegenüber der selben Person bzw Einrichtung geltend zu machen sind. Denn während das Recht auf Erklärung nach Art 86 AI Act gegen den Betreiber des KI-Systems zusteht, ist der Auskunftsanspruch gemäß Art 15 Abs 1 lit h DSGVO gegen jene Person oder Stelle zu richten, welche die Entscheidung getroffen hat (welche zwar meist aber nicht zwangsläufig mit der Person des datenschutzrechtlich Verantwortlichen iSd Art 4 Z 7 DSGVO ident sein wird&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Argumentation folgend: &#039;&#039;Ziegenhorn,&#039;&#039; Wer ist Adressat des Art. 22 DSGVO? Zur Abgrenzung des Entscheiders vom Verantwortlichen, CR 2024, 586.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;). Die unterschiedlichen Rollen nach AI Act und DSGVO können somit zusammenfallen, müssen dies allerdings nicht, wodurch sich unterschiedliche Verpflichtungen für die beteiligten Akteure ergeben können.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== Produkthaftungsrichtlinie neu und Vorschlag für eine AI Liability Directive [zurückgezogen] ===&lt;br /&gt;
&lt;br /&gt;
* Die Produkthaftungsrichtlinie neu (PHRL neu) und insbesondere &amp;lt;mark&amp;gt;der (zurückgezogene)&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Commission work programme 2025, (11.2.2025) COM(2025) 45 final, 26.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Vorschlag für eine&amp;lt;/mark&amp;gt; AI Liability Directive (AILD) nehmen direkt auf den AI Act Bezug und verweisen bei der Begriffsverwendung häufig auf diesen. Die AILD kann somit nicht ohne den Kontext des AI Act verstanden werden. So sollten die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD bilden ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]). &lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act überträgt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Begleit- bzw Durchführungsgesetz, das die Sanktionen konkretisiert.  &amp;lt;mark&amp;gt;Auch die notifizierende(n) Behörde(n) und die Marktüberwachungsbehörde(n) (Art 70 AI Act) wurden in Österreich noch nicht benannt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 5: Transkriptionstool im Rahmen der Rechtspflege&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|&amp;lt;mark&amp;gt;Im Rahmen des Verfassens von Urteilen oder Protokollen wird das gesprochene Wort (Diktat des Entscheidungsorgans) digital aufgezeichnet und anschließend transkribiert. Das System ist in der Lage, mithilfe KI-gestützter Spracherkennung die jeweils Sprechenden (Speaker Diarisation) sowie juristische Begriffe und Redewendungen zu erkennen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Transkriptionssoftware liegt ein Sprachmodell (LLM) zugrunde, das auf maschinellem Lernen basiert. Dieses wird durch ein User-Interface praktisch nutzbar gemacht und stellt somit ein KI-System iSd AI Act dar.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&amp;lt;mark&amp;gt;Der Einsatz von KI in der Rechtspflege zu gewissen Zwecken kann in den Hochrisiko-KI-Bereich gemäß Art 6 Abs 2 iVm Anhang III Nr 8 lit a AI Act fallen. Solche Systeme sind jedoch nicht als hochriskant einzustufen, sofern sie für rein begleitende administrative Tätigkeiten bestimmt sind, worunter jedenfalls Spracherkennungsprogramme für das Diktieren von Entscheidungen fallen können (ErwGr 61). In einem nächsten Schritt ist die Ausnahmeregelung des Art 6 Abs 3 AI Act zu prüfen, wonach das System höchstwahrscheinlich gemäß lit a leg cit aus dem Hochrisiko-KI-Bereich ausgenommen ist, da es rein für Protokollierungszwecke eingesetzt wird und damit nur eine eng gefasste Verfahrensaufgabe übernimmt. Ebenso ist denkbar, gemäß lit d leg cit aus dem Hochrisiko-KI-Bereich ausgenommen zu sein, sofern das System lediglich eine vorbereitende Aufgabe für die Urteilserstellung übernimmt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Bejaht man hingegen das Vorliegen von Hochrisiko-KI, so treffen deren Anbieter die Pflichten der Art 8 ff AI Act und den Betreiber insbesondere die Pflichten nach Art 26 und 27 AI Act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Sofern es sich um ein KI-Modell mit allgemeinem Verwendungszweck (mit systemischem Risiko) handelt, treffen den Anbieter diesbezüglich Verpflichtungen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Unabhängig von der Risikoeinstufung des Modells bzw Systems sind darüber hinaus die Transparenzpflichten nach Art 50 AI Act zu beachten sowie ein ausreichendes Maß an KI-Kompetenz unter den Beschäftigten, die mit dem Transkriptionstool arbeiten, herzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 6: KI-System zur Filterung und Priorisierung von Bewerbungen&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Sachverhalt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen möchte eine neue Stelle besetzen und erhält unzählige Bewerbungen. Daher entschließt es sich, ein KI-basiertes System einzusetzen, das Bewerbungen filtert und mit einem Einstufungswert versieht, wodurch die Bewerbungen priorisiert werden. Die zuständigen HR-Mitarbeiter*innen weichen nicht mehr von dem Wert ab und vergeben die Stelle schließlich an jene Person, die den höchsten Einstufungswert erhalten hat.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!&amp;lt;mark&amp;gt;Einordnung AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Sofern es sich bei der Anwendung um ein KI-System nach Art 3 Z 1 AI Act handelt, ist der Anwendungsbereich des AI Act grundsätzlich eröffnet. Das Unternehmen ist jedenfalls als dessen Betreiber zu qualifizieren, da es das System in eigener Verantwortung zu beruflichen Zwecken einsetzt. Sofern es das KI-System auch selbst entwickelt / entwickeln lässt und es unter eigener Marke bzw eigenem Namen in Betrieb nimmt, ist es sogar Anbieter.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]].&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Darüber hinaus stellt das System ein &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System nach Art 6 Abs 2 iVm Anhang III Punkt 4a AI Act dar, da es bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet wird, um Bewerbungen zu filtern und Bewerber zu bewerten. Eine Ausnahme nach Art 6 Abs 3 AI Act vom Hochrisiko-KI-Bereich liegt nicht vor, da das KI-System das Ergebnis der Entscheidungsfindung wesentlich beeinflusst (von dem KI-generierten Eignungswert wird nicht mehr abgewichen). Je nach Rolle treffen das Unternehmen nun weitereichende Verpflichtungen. In den meisten Fällen wird das Unternehmen wohl als Betreiber zu klassifizieren sein, weshalb es unter anderem die Betreiberpflichten nach Art 26 AI Act zu erfüllen und unter gewissen Voraussetzungen eine Grundrechte-Folgenabschätzung nach Art 27 AI Act durchzuführen hat. Art 26 Abs 7 sieht grundsätzlich auch die spezielle Betreiberpflicht vor, vor Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz die Arbeitnehmervertreter und betroffenen Arbeitnehmer über den KI-Einsatz zu informieren. Inwieweit diese Verpflichtung auch gegenüber Bewerbern gilt, die streng genommen (noch) keine Arbeitnehmer sind, ist fraglich und wird wohl zu verneinen sind. Diese vermeintliche Rechtsschutzlücke wird jedoch ohnehin wieder durch die Verpflichtung gemäß Art 26 Abs 11 AI Act ausgeglichen, von Hochrisiko-KI-Entscheidungen betroffene Personen über diesen KI-Einsatz zu informieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= &amp;lt;mark&amp;gt;Digitaler Omnibus&amp;lt;/mark&amp;gt; =&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 19. November 2025 stellte die Europäische Kommission das sogenannte &#039;&#039;&#039;„Digital Omnibus Package“&#039;&#039;&#039; vor, ein Legislativpaket mit dem Ziel, den digitalen Rechtsrahmen der EU zu vereinfachen.&amp;lt;ref name=&amp;quot;:2&amp;quot;&amp;gt;Vgl https://ec.europa.eu/commission/presscorner/detail/de/ip_25_2718. &amp;lt;/ref&amp;gt; Ziel der Maßnahme ist, Verwaltungs- und Umsetzungskosten zu senken, Rechtsklarheit zu erhöhen und insbesondere kleine und mittlere Unternehmen (KMU) zu entlasten, da Unternehmen zunehmend Schwierigkeiten bei der Umsetzung und Koordination von Vorgaben wie etwa dem AI Act sehen. Das Paket umfasst Änderungen und Anpassungen unterschiedlicher Rechtsrahmen, so auch einige Bestimmungen des AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Inhaltliche Änderungen betreffen einerseits die Verpflichtung zur Sicherstellung von KI-Kompetenz (Art 4), welche nunmehr nicht Unternehmen bzw. Einrichtungen selbst treffen soll, sondern die Kommission und die Mitgliedstaaten sind dazu angehalten, Anbieter und Betreiber zur Sicherstellung eines angemessenen Maßes an KI-Kompetenz zu unterstützen. Ebenso stellt die Kommission eine Verzögerung der Anwendbarkeit der Hochrisiko-KI-Bestimmungen in Aussicht, welche mit 2. August 2026 bzw 2. August 2027 Anwendung erlangen sollten. Grund ist das Fehlen von entsprechenden Standards, die eigentlich bis August 2025 zu setzen waren und ohne die laut Kommission die Einhaltung der entsprechenden AI Act-Bestimmungen nicht möglich sei. Die Anwendbarkeit der Hochrisiko-KI-Bestimmungen soll sich um bis zu maximal 16 Monate verzögern, wobei die Vorschriften Geltung erlangen, sobald die Kommission die Verfügbarkeit der erforderlichen Standards und Unterstützungsinstrumente bestätigt.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:2&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus enthält der Vorschlag einen neuen Art 4a, der die Verarbeitung sensibler personenbezogener Daten zur Erkennung und Minderung von Bias unter gewissen Voraussetzungen ermöglicht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Kommissionsleitlinien und sonstige Materialen/Verhaltenskodizes&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zur Definition eines Systems der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 6. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118628&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 4. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118661&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Living Repository zur Förderung des Lernens und des Austausches über KI-Kompetenz vom 04. Februar 2025 (mit Update von April 2025): https://ec.europa.eu/newsroom/dae/redirection/document/112203&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Praxisleitfaden für KI-Modelle mit allgemeinem Verwendungszweck (General-Purpose AI Code of Practice) vom 10. Juli 2025: https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Transparenz: https://ec.europa.eu/newsroom/dae/redirection/document/118120&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Urheberrecht: https://ec.europa.eu/newsroom/dae/redirection/document/118115&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Sicherheit: https://ec.europa.eu/newsroom/dae/redirection/document/118119&amp;lt;/mark&amp;gt;  &lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act vom 18. Juli 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118340&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien und Meldevorlagen zur Meldung schwerwiegender KI-Vorfälle gemäß Art 73 AI Act (&#039;&#039;Entwurf, noch in Ausarbeitung&#039;&#039;): https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; AI Act Service Desk. Frequently Asked Questions (FAQs): https://ai-act-service-desk.ec.europa.eu/en/faq.&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Whistleblower Tool for AI Act, https://digital-strategy.ec.europa.eu/en/news/commission-launches-whistleblower-tool-ai-act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act)&amp;lt;mark&amp;gt;&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024) &amp;lt;mark&amp;gt;(2. Auflage 2026, iE)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schefzig/Kilian,&#039;&#039; BeckOK KI-Recht&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Hochrangige Expertengruppe für Künstliche Intelligenz,&#039;&#039; Ethik-Leitlinien für eine vertrauenswürdige KI (2019), https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425&amp;lt;/mark&amp;gt;&lt;br /&gt;
* [https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0 Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA)]&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4339</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4339"/>
		<updated>2025-11-27T22:47:01Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) */ Präzisierung GPAI Code of Practice&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. Februar 2025 (schrittweise)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen von KI-Systemen &lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD, &amp;lt;mark&amp;gt;von der Kommission zurückgezogen&amp;lt;/mark&amp;gt;)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modelle (general purpose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB Verarbeitung zur Vermeidung von Verzerrungen, Art 10), regulatory sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (zB Anbieter- und Betreiberpflichten, Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz (eingeschränkt); reine Forschungszwecke &lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) gelten seit 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (zB Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|Gewährleistung von Transparenz und Verantwortlichkeit&lt;br /&gt;
|Pflichten für Betreiber (professionelle Nutzer*innen) und Anbieter&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (zB Chatbots, Deepfakes)&lt;br /&gt;
|Informationspflichten nach der DSGVO&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
&amp;lt;mark&amp;gt;Der AI Act ist die erste EU-weite, sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) und&amp;lt;/mark&amp;gt; folgt dabei primär einem produktsicherheitsrechtlichem Ansatz, dessen vorrangiges Regulierungsziel die Sicherheit von KI-Systemen und Modellen ist. &amp;lt;mark&amp;gt;Damit ist er Teil des sog [https://single-market-economy.ec.europa.eu/single-market/goods/new-legislative-framework_en?prefLang=de &amp;quot;New Legislative Framework&amp;quot;] (NLF), einem unionsrechtlichen Maßnahmenpaket zur Produktregulierung, das auf die Verbesserung der Marktüberwachung abzielt und sich durch einheitliche Kernelemente auszeichnet (zB Konformitätsbewertungsverfahren, Selbstregulierung, Standards und einheitliche Anforderungen). Im Rahmen des Gesetzgebungsprozesses wurde der Rechtsakt - insbesondere auf Bestreben des Europäischen Parlaments - um menschenrechtliche Aspekte und Betroffenenrechte erweitert, weshalb der AI Act mittlerweile deutlich über reines Produktsicherheitsrecht hinausgeht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modelle&#039;&#039;&#039; bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot;.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei handelt es sich um &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;ableitet&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot;&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe Art 3 Z 1 AI Act. Hervorhebungen nicht im Original. &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;abzuleiten&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Hingegen soll sich nach ErwGr 12 der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen [...]&amp;quot;, womit auf eine Abgrenzung von KI von herkömmlichen Softwarelösungen und Programmierungsansätzen abgezielt wird.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zusammenfassend möchte der EU-Gesetzgeber mit dieser Definition einerseits Rechtssicherheit schaffen, allerdings immer noch Raum für technologischen Fortschritt lassen, um den Anwendungsbereich des AI Act nicht von Vornherein vor potenziellen künftigen technologischen Entwicklungen zu verschließen.&amp;lt;/mark&amp;gt; Dennoch wurde die Definition als zu vage und unbestimmt empfunden. So wurden diverse Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Um den Begriff des KI-Systems also zu konkretisieren und Unsicherheiten zu beseitigen, sollte die Kommission gemäß Art 96 Abs 1 lit f AI Act Leitlinien vorlegen, und damit eine einheitliche Anwendung des Regelwerks fördern sowie Rechtsicherheit gewährleisten&amp;lt;/mark&amp;gt;.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle, &amp;lt;mark&amp;gt;einfache Datenverarbeitungssysteme, auf klassische Heuristik gestützte Systeme, einfache Vorhersagesysteme etc.&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Eine Positiv-Liste, welche Systeme jedenfalls unter den KI-Begriff fallen, enthalten die Leitlinien allerdings nicht. Sie orientieren sich vielmehr an den 7 Kernelementen der KI-Definition gemäß Art 3 Z 1 AI Act. Es wird überdies betont, dass nicht alle Elemente kontinuierlich in den beiden Hauptphasen des Lebenszyklus von KI (&amp;quot;building phase&amp;quot; / &amp;quot;pre-deployment&amp;quot; oder &amp;quot;use phase&amp;quot; / &amp;quot;post-deployment&amp;quot;) vorhanden sein müssen und, dass sich die Leitlinien kontinuierlich weiterentwickeln sollen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Folgende Konkretisierungen der KI-Definition und Beispiele sind den Leitlinien zu entnehmen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Elemente der KI-Definition&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Erläuterungen in den Leitlinien der EU-Kommission&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Maschinengestütztes System&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;KI benötigt Hardware- und Softwarekomponenten&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB eine Hardwareinfrastruktur wie processing units, Speicher, Input/Output-Schnittstellen und Software (Code, Programme etc.)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;autonomer Betrieb (in unterschiedlichem Grade)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erfordert einen gewissen Grad an Unabhängigkeit von menschlichem Eingreifen, wobei Systeme, die vollständig manuelle menschliche Interaktion erfordern, nicht darunter fallen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Umfasst sind Systeme, die zwar einen manuellen Input erfordern, aber von selbst einen Output generieren (zB Chatbots)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anpassungsfähigkeit nach Betriebsaufnahme (optional)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Selbstlernfähigkeiten (nicht zwingend erforderlich); darunter versteht man, ob sich das Verhalten des Systems während seiner Verwendung anpassen oder verändern kann (zB automatisches Lernen, wie Muster oder Beziehungen zwischen Daten erkannt werden können).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungsfähigkeit&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Inferenz, Schlüsseleigenschaft; dient der Abgrenzung von KI-Systemen von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen. Nicht umfasst sind hingegen Systeme, die nur von Menschen programmierten Regeln folgen und automatisiert Operationen ausführen. Die Ableitungsfähigkeit bedeutet daher die Erlernung allgemeiner Konzepte statt fester, vorprogrammierter Regeln.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Bsp: maschinelles Lernen, logik- und wissensgestützte Systeme (Schlussfolgerungen mittels Deduktion oder Induktion)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitung aus Eingaben für implizite oder explizite Ziele&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungen müssen nach entweder:&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;expliziten Zielen (klar definierte, direkt in den Code programmierte Ziele, Optimierung von Kostenfunktionen, Wahrscheinlichkeitsberechnung) oder&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;impliziten Zielen (Ableitung des Ziels aus dem Verhalten oder den dahinterstehenden Annahmen des Systems; bspw Trainingsdaten oder Interaktion des Systems mit Umwelt) erfolgen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erzeugung von Ausgaben&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ausgabe-Arten umfassen unter anderem&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Vorhersagen (Schätzungen unbekannter Werte basierend auf komplexen Datenmustern)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Inhalte (Texte, Bilder, Videos oder Musik)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Empfehlungen (Vorschläge für Maßnahmen, Produkte oder Dienstleistungen, die hochgradig personalisiert sind und Massendaten nutzen).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Entscheidungen (Vollautomatisierte Schlussfolgerungen oder Auswahlentscheidungen, die Prozesse automatisieren, die üblicherweise menschlichem Urteilsvermögen vorbehalten sind)&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;zB die generierten Inhalte von Chatbots, Produktvorschläge, Echtzeit-Vorhersagen, Auswahlentscheidungen&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Beeinflussung physischer oder virtueller Umgebungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Frage, ob das System einen aktiven Einfluss auf die Umgebungen hat, in denen es eingesetzt wird, sei es auf materielle physische Objekte oder auf digitale Räume&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB Roboterarm, Software-Ökosysteme, Datenströme&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}  &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI-Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit aus, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). &amp;lt;mark&amp;gt;Man kann hier den Vergleich zu einem KFZ ziehen, wobei das KI-Modell den Motor darstellt, der die eigentliche &amp;quot;Arbeit&amp;quot; leistet. Um jedoch fahrtüchtig zu sein, bedarf es nicht nur eines Motors, sondern das Fahrzeug benötigt darüber hinaus eine Karosserie, Räder, ein Lenkrad etc. Das wiederum bezeichnet das KI-System, welches das Modell erst durch seine Schnittstellen, seine Benutzeroberfläche etc. &amp;quot;fahrtüchtig&amp;quot; und damit nutzbar macht.&amp;lt;/mark&amp;gt; Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen &amp;quot;Nutzer&amp;quot;) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder sich in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollen:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität), unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act trat am &#039;&#039;&#039;1. August 2024&#039;&#039;&#039; in Kraft und wird generell am &#039;&#039;&#039;2. August 2026&#039;&#039;&#039; anwendbar (Art 113 AI Act). Gestaffelt erlangen einige Bestimmungen jedoch bereits vorab oder danach Geltung:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab &#039;&#039;&#039;2. August 2025&#039;&#039;&#039;&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem &#039;&#039;&#039;2. August 2027&#039;&#039;&#039;&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 111 Abs 2 AI Act enthält dabei jedoch eine sog „grandfathering“-Klausel, nach welcher der AI Act für Betreiber von Hochrisiko-KI-Systemen, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, nur dann gilt, wenn diese Systeme danach in ihrer Konzeption erheblich verändert wurden.&amp;lt;ref&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 23, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Verpflichtung zur Maßnahmenergreifung gilt für Betreiber und Anbieter gleichermaßen und ist ferner unabhängig von der Risikoklasse der infragestehenden KI-Anwendung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Unter KI-Kompetenz versteht man grundsätzlich &amp;quot;die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.&amp;quot;&amp;lt;ref&amp;gt;Vgl die Definition in Art 3 Z 56 AI Act.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dies umfasst die notwendigen Kompetenzen, um fundierte Entscheidungen über KI-Systeme zu treffen, technische Elemente zu verstehen sowie korrekt anzuwenden, die Auswirkungen von KI-basierten Entscheidungen auf Betroffene zu verstehen und KI-generierte Ausgaben angemessen zu interpretieren.&amp;lt;ref name=&amp;quot;:1&amp;quot;&amp;gt;Vgl ErwGr 20 AI Act. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dazu gehört auch, den einschlägigen Akteuren der KI-Wertschöpfungskette jene erforderlichen Kenntnisse zu vermitteln, um die Einhaltung und Durchsetzung der Vorschriften des AI Act zu gewährleisten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Weitere Konkretisierungen oder zwingende Mindestvorgaben für die Sicherstellung der KI-Kompetenz enthält der AI Act allerdings nicht und betont sogar, dass die Konzepte der KI-Kompetenz in Bezug auf den jeweiligen Kontext unterschiedlich sein können.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:1&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Die EU-Kommission hat daher ein [https://digital-strategy.ec.europa.eu/de/library/living-repository-foster-learning-and-exchange-ai-literacy &amp;quot;Living Repository&amp;quot;] angelegt, in dem Unternehmen ihre Praktiken in Bezug auf KI-Kompetenz eingetragen haben. Das Repository wird laufend ergänzt, ist jedoch nicht rechtsverbindlich. Weiters bilden die darin enthaltenen Praktiken keine Garantie zur Compliance mit Art 4 AI Act, allerdings stellen sie eine gute Orientierung dar, welche Maßnahmen zur Sicherstellung von KI-Kompetenz in unterschiedlichen Branchen bereits ergriffen werden. Häufig genannte Praktiken umfassen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne eLearning-Plattformen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne Weiterbildungen und Trainingsprogramme,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Kenntnis-basierte Schulungen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Video-/Podcast-Reihen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;spielebasierte Trainings,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Erstellung von KI-Verhaltenskodizes und Risikobewertungssystemen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;eigene Chatbots zum Training im Umgang mit Sprachmodellen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Denkbar ist überdies die Teilnahme an externen Fortbildungen und Schulungen, die Entwicklung von internen Richtlinien (&amp;quot;KI-Guidelines&amp;quot;) oder die Schaffung von sog &amp;quot;KI-Beauftragten&amp;quot; in der Organisation. Ob die Schulungsmaßnahmen fortlaufend zu erfolgen haben, ist rechtlich nicht vorgeschrieben, wird allerdings anzunehmen sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Dieser Ansicht folgend: &#039;&#039;Siglmüller&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 4 KI-Kompetenz Rz 5.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Ebensowenig sind die genauen Inhalte der Kompetenzvermittlungsmaßnahmen definiert. Es kann jedenfalls davon ausgegangen werden, dass diese zielgruppengerecht und zugeschnitten auf unterschiedliche Bedürfnisse erfolgen sollten. Weiters werden sie sich bei manchen Branchen, KI-Einsatzgebieten oder Personengruppen nicht lediglich auf rechtliche oder technische Anforderungen beschränken, sondern ebenso soziale und ethische Komponenten umfassen. Bei der Entwicklung und Nutzung von GPAI-Modellen wird beispielsweise die Vermittlung von Kenntnissen im Zusammenhang mit Urheberrecht, Datenschutz, &amp;quot;Bias&amp;quot; (Verzerrungen) oder &amp;quot;Halluzinationen&amp;quot; (erfundene falsche Ausgaben) sinnvoll sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger,&#039;&#039; Wissenskultur im KI-Zeitalter – eine Auseinandersetzung mit der KI-Kompetenz nach Art 4 AI Act und ihren praktischen Implikationen, ZIIR 2025, 250.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die EU-Kommission hat darüber hinaus eine [https://digital-strategy.ec.europa.eu/de/faqs/ai-literacy-questions-answers &amp;quot;FAQ-Seite&amp;quot;] mit Fragen und Antworten zur KI-Kompetenz angelegt, um einen besseren Überblick über die Anforderungen zu geben.&amp;lt;/mark&amp;gt;    &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten, &amp;lt;mark&amp;gt;da sie besonders schädlich sind, enormes Missbrauchspotenzial aufweisen und im Widerspruch zu europäischen Grundrechten und Grundfreiheiten stehen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 28 AI Act.&amp;lt;/mark&amp;gt; MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt; (Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt; Folgende Praktiken sind davon umfasst: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Praktik&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Nicht erfasste Praktiken&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsgrundlage&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Unterschwellige Beeinflussung außerhalb des Bewusstseins oder manipulative/täuschende Techniken&#039;&#039;&#039;, wodurch die freie Entscheidungsfähigkeit von Personen beeinträchtigt wird und ein Schaden mit hinreichender Wahrscheinlichkeit eintritt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ableitung sensibler Informationen aus Gehirnen von Nutzern über Maschine-Gehirn-Schnittstellen&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 29 AI Act sowie Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 66.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Chatbots, die zur Selbstverletzung verleiten&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 87.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Unterschwellige visuelle oder auditive Reize bzw generelle sensorische Manipulation&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 65 und 68.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erlaubt ist hingegen der Einsatz eines KI-Systems, das personalisierte Empfehlungen auf der Grundlage transparenter Algorithmen und Nutzerpräferenzen verwendet, und sich nicht absichtlich manipulativer Techniken bedient.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 128.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit a&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Ausnutzen der Vulnerabilität/Schutzbedürftigkeit&#039;&#039;&#039; aufgrund des Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine KI-Begleit-App, die durch gewisse Sprachmuster und Verhaltensweisen gezielt emotionale Abhängigkeiten und ungesunde Bindungen bei älteren Menschen erzeugt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-gestütztes Spielzeug, das Kinder zu riskanten Herausforderungen ermutigt oder durch süchtig machende Techniken zu übermäßigem Spielen anregt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte &amp;quot;Grooming-Praktiken&amp;quot; (gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht), um Mädchen mit Behinderung im Internet anzusprechen und zu manipulieren&amp;lt;ref&amp;gt;Vgl Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 88 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Kinder beim Lernen einer Fremdsprache durch den Einsatz unterschwelliger Techniken unterstützen soll, sofern sie transparent arbeitet und die Nutzerautonomie wahrt.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Benommenheit und Ermüdung bei Fahrern erkennen und sie im Einklang mit den Sicherheitsvorschriften mit Warnmeldungen auf Ruhepausen hinweisen, gelten ebenso nicht als Ausnutzung von Vulnerabilitäten.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 130ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit b&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social scoring&#039;&#039;&#039; (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Verwendung eines KI-Systems zur Schätzung der Betrugswahrscheinlichkeit bei Empfängern von Haushaltszulagen durch das Sozialamt, das sich auf Merkmale stützt, die in sozialen Kontexten ohne offensichtlichen Zusammenhang mit oder Relevanz für die Bewertung von Betrug erhoben oder abgeleitet werden, wie zB ein Ehepartner mit einer bestimmten Staatsangehörigkeit oder ethnischen Herkunft, der Besitz eines Internetanschlusses, das Verhalten auf sozialen Plattformen oder die Leistung am Arbeitsplatz etc.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems durch eine öffentliche Stelle, um für die Früherkennung gefährdeter Kinder anhand von Kriterien wie der psychischen Gesundheit und Arbeitslosigkeit der Eltern, aber auch anhand von aus verschiedenen Kontexten abgeleiteten Informationen über das soziale Verhalten der Eltern Familienprofile zu erstellen. Auf der Grundlage der erzielten Bewertung werden Familien für Kontrollen ausgewählt und als „gefährdet“ geltende Kinder werden aus ihren Familien genommen, unter anderem auch in Fällen geringfügiger Übertretungen seitens der Eltern, wie zB gelegentlich verpasste Arzttermine oder verhängte Verkehrsstrafen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine Regierung führt ein umfassendes KI-gestütztes System ein, das die Bürgerinnen und Bürger auf der Grundlage ihres Verhaltens in verschiedenen Lebensbereichen wie sozialen Interaktionen, Online-Aktivitäten, Kaufgewohnheiten und Pünktlichkeit bei der Begleichung von Rechnungen überwacht und einstuft. Menschen mit einer niedrigeren Bewertung müssen damit rechnen, dass sie eingeschränkten Zugang zu öffentlichen Dienstleistungen erhalten, höhere Zinsen auf Kredite zahlen und auf Reisen und bei der Suche nach einer Wohnung oder sogar einem Arbeitsplatz Schwierigkeiten haben.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 166 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Bonitätsprüfung natürlicher Personen auf Basis persönlicher Merkmale wie dem Einkommen vor Vergabe eines Kredits.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basierte Erhebung von Geschwindigkeitsüberschreitungen oder hochriskantem Fahrverhalten, die zur Erhöhung der KFZ-Versicherungsprämien führen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte gezielte kommerzielle Werbung fällt nicht in den Anwendungsbereich, wenn sie auf relevanten Daten (z. B. Nutzerpräferenzen) beruht, im Einklang mit den Rechtsvorschriften der Union über Verbraucherschutz, Datenschutz und digitale Dienste erfolgt und nicht zu einer Schlechterstellung oder Benachteiligung führt, die in keinem angemessenen Verhältnis zur Tragweite des sozialen Verhaltens des Nutzers steht (z. B. ausbeuterische und unfaire differenzierte Preisgestaltung).&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 177.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit c&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Bewertung des Risikos, dass eine Person eine Straftat&#039;&#039;&#039; begeht (ausschließlich aufgrund von Profiling)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Eine Polizeidienststelle verwendet KI-gestützte Risikobewertungsinstrumente, um das Risiko zu bewerten, dass kleine Kinder und Jugendliche an „künftigen Gewalttaten und Eigentumsdelikten“ beteiligt sein werden. Das System bewertet Kinder auf der Grundlage ihrer Beziehungen zu anderen Menschen und deren vermeintlichen Risikoniveaus, dh es wird eventuell davon ausgegangen, dass bei Kindern ein höheres Risiko für die Begehung von Straftaten besteht, einfach weil sie mit einer anderen Person wie einem Geschwisterkind oder einem Freund verbunden sind, bei der eine hohe Risikobewertung vorliegt. Das Risikoniveau der Eltern kann sich ebenfalls auf das Risikoniveau eines Kindes auswirken.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 202.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Standortbezogene oder geodatenbasierte Vorhersagen oder ortsbezogene Verbrechensvorhersagen (zB KI-System zur Berechnung der Kriminalitätswahrscheinlichkeit in bestimmten Stadtgebieten oder von Schmuggelrouten)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Unterstützung der durch Menschen durchgeführten Bewertung, die sich auf objektive und überprüfbare Tatsachen stützt, die in Zusammenhang mit einer kriminellen Aktivität stehen (zB Profiling zur Vorhersage gefährlichen Verhaltens in einer Menschenmenge, KI-basiertes Profiling von Personen, gegen die bereits ein Verdacht besteht, der auf mehreren überprüfbaren, objektiven Tatsachen beruht).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basiertes Profiling in Bezug auf juristische Personen&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur individuellen Vorhersage von Ordnungswidrigkeiten (zB Bagatellverkehrsdelikte)&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 212 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit d&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erstellung/Erweiterung von &#039;&#039;&#039;Datenbanken&#039;&#039;&#039; zur Gesichtserkennung durch &#039;&#039;&#039;ungezieltes Auslesen von Gesichtsbildern&#039;&#039;&#039;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen für Gesichtserkennungssoftware sammelt Bilder von Gesichtern, die mit einem „automatisierten Bildausleser“, der das Internet durchsucht und Bilder mit menschlichen Gesichtern erkennt, aus sozialen Medien (zB Facebook, X) ausgelesen wurden. Der Bildausleser sammelt diese Bilder mit allen damit verbundenen Informationen (wie der Quelle des Bildes (URL), der Geolokalisierung und manchmal den Namen der einzelnen Personen). Die Gesichtsmerkmale werden dann aus den Bildern extrahiert und in mathematische Darstellungen umgewandelt, die für die Indexierung und den künftigen Vergleich mit Hashtags versehen werden. Wenn ein Nutzer das Bild einer Person in das KI-System hochlädt, wird dieses System bestimmen, ob dieses Bild mit einem Gesicht in der Datenbank übereinstimmt.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 232.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Das ungezielte Auslesen anderer biometrischer Daten als Gesichtsbilder (zB Stimmaufnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Gesichtsbilddatenbanken, die nicht für die Erkennung von Personen verwendet werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Gesichtsbilder aus dem Internet sammeln, um KI-Modelle zur Erzeugung neuer Bilder fiktiver Personen zu entwickeln&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit e&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Emotionserkennungssysteme&#039;&#039;&#039; am Arbeitsplatz oder in Bildungseinrichtungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das beispielsweise aus Gesten, Stirnrunzeln oder fehlendem Lächeln ableitet, dass ein Mitarbeiter unglücklich, traurig oder gegenüber den Kunden wütend ist&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Systeme, die aus Stimmführung oder Körpersprache ableiten, dass ein Schüler zornig und im Begriff ist, gewalttätig zu werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Emotionen aus Tastenanschlägen (Art des Tippens), Gesichtsausdrücken, Körperhaltungen oder Bewegungen ableitet, beruht auf biometrischen Daten und fällt in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die den emotionalen Ton in hybriden Arbeitsteams überwachen, indem sie Emotionen aus Stimm- und Bildaufnahmen hybrider Videokonferenzen erkennen und ableiten, was in Regel der Förderung des sozialen Bewusstseins, des Managements emotionaler Dynamik und der Konfliktverhütung dienen würde&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems bei Online-Prüfungen zur Erkennung von Emotionen wie Erregungs- und Angstzustände&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung zur Bewertung des Wohlbefindens, des Motivationsniveaus und der Arbeits- oder Lernzufriedenheit von Studierenden oder Arbeitnehmern.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der Einsatz von KI-Erkennungssystemen, um auf die Ermüdung eines Berufspiloten oder -fahrers zu schließen, ihn zu warnen und ihm zu empfehlen, zur Vermeidung von Unfällen Pausen einzulegen, da Emotionserkennung keine physischen Zustände wie Schmerzen oder Ermüdung einschließt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das aus schriftlichen Texten (Analysen von Inhalt und Stimmung) Emotionen ableitet, um den Stil oder den Ton eines bestimmten Artikels zu bestimmen, beruht nicht auf biometrischen Daten und fällt daher nicht in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Werden Emotionserkennungssysteme nur zu persönlichen Schulungszwecken eingesetzt, sind sie zulässig, sofern die Ergebnisse nicht Personen mit Personalverantwortung zur Verfügung gestellt werden und keine Auswirkungen auf das Arbeitsverhältnis haben&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die durch eine Bildungseinrichtung erfolgende Verwendung einer KI-gestützten Software zur Verfolgung der Augenbewegungen bei Online-Prüfungen Studierender, um den Fixierungspunkt und die Bewegung der Augen zu verfolgen (um beispielsweise zu erkennen, ob unerlaubtes Material verwendet wird), ist nicht verboten, da das System Emotionen weder erkennt noch ableitet&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung aus medizinischen Gründen zur Unterstützung von Arbeitnehmern oder Studierenden mit Autismus und zur Verbesserung der Barrierefreiheit für blinde oder gehörlose Menschen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit f&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Kategorisierung,&#039;&#039;&#039; Ableitung von sensiblen Daten (religiöse Weltanschauung, politische Einstellung)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Personen, die auf einer Plattform sozialer Medien aktiv sind, nach ihrer angenommenen politischen Ausrichtung kategorisiert, indem es die biometrischen Daten der von ihnen auf die Plattform hochgeladenen Fotos analysiert, um ihnen gezielte politische Nachrichten zu übermitteln&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;ein System zur biometrischen Kategorisierung, das für sich in Anspruch nimmt, die religiöse Ausrichtung einer Person aus ihren Tätowierungen oder ihrem Gesicht ableiten zu können.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 280 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die mit der Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze, auch zu Strafverfolgungszwecken, befasst sind (zB bei Verdacht auf Darstellungen sexuellen Kindesmissbrauchs)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;die Kategorisierung von Patienten, bei der Bilder nach ihrer Haut- oder Augenfarbe verwendet werden, für medizinische Diagnosen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 284 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit g&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Echtzeit-Fernidentifizierungssysteme&#039;&#039;&#039; in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die polizeiliche Verwendung von Systemen zur biometrischen Echtzeit-Fernidentifizierung zu dem Zweck, Ladendiebe zu identifizieren und ihre Gesichtsbilder mit Kriminaldatenbanken zu vergleichen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 328.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung von Echtzeit-Gesichtserkennungstechniken durch die Polizei nach einem schweren Terroranschlag auf einen Weihnachtsmarkt mit zwölf Toten, um den Täter zu identifizieren und festzustellen, wohin er flieht. In diesem Zusammenhang nutzen sie auch die Echtzeit-Gesichtserkennungstechnik des nahe gelegenen Bahnhofs und der Zielbahnhöfe der Züge, die kurz nach dem Angriff von dort abgehen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 354.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit h&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&amp;lt;br /&amp;gt;&lt;br /&gt;
Einige dieser Praktiken sind darüber hinaus bereits nach anderen Rechtsvorschriften verboten, so beispielsweise gewisse manipulative und täuschende Techniken als &amp;quot;dark patterns&amp;quot; nach dem [[Digital Services Act (DSA)|Digital Services Act]] (gilt nur für bestimmte Plattform-Anbieter) oder die Verarbeitung biometrischer Daten zur Identifizierung einer Person nach Art 9 Abs 1 DSGVO, sofern keine der in Abs 2 genannten Ausnahmen vorliegt. Gemäß der neuen Plattformarbeitsrichtlinie&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Richtlinie (EU) 2024/2831 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit, ABl L 11. 11. 2024.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;, die bis Dezember 2026 in nationales Recht umzusetzen ist, ist überdies der Einsatz von automatisierten Überwachungs- und Entscheidungssystemen zur Erfassung personenbezogener Daten über den emotionalen oder psychischen Zustand einer Person (Emotionserkennung) verboten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;MwN &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2024) Art 5 Rz 104.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act klassifiziert Hochrisiko-KI-Systeme in Art 6. Dabei kennt er zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige&amp;quot; Hochrisiko-KI-Systeme bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei folgenden Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder stellt selbst ein solches Produkt dar&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten: bspw biometrische Identifizierung, kritische Infrastrukturen, grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle, Justiz und demokratische Prozesse).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis einer Entscheidungsfindung, an der das System beteiligt ist, wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot; &amp;lt;mark&amp;gt;Als Profiling gilt dabei iSd Art 4 Abs 4 DSGVO jede automatisierte Verarbeitung personenbezogener Daten, die darin besteht, bestimmte persönliche Aspekte einer Person zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, Gesundheit, persönliche Vorlieben, Zuverlässigkeit, Verhalten etc. zu analysieren oder vorherzusagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Europäische Kommission hat im Rahmen von Public Consultations unter anderem auch Rückmeldungen zu Anforderungen an Hochrisiko-KI-Systeme eingeholt, die eine Grundlage für Leitlinien bilden sollen, welche im Februar 2026 veröffentlicht werden sollen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;European Commission, Commission launches public consultation on high-risk AI systems, https://digital-strategy.ec.europa.eu/en/news/commission-launches-public-consultation-high-risk-ai-systems (Stand 6.6.2025).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Pflichten für Betreiber von Hochrisiko-KI-Systemen&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Betreiberpflichten nach Art 26 AI Act&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis &amp;lt;mark&amp;gt;([https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#KI-Kompetenz/AI_literacy_(Art_4_AI_Act) &amp;quot;KI-Kompetenz&amp;quot;] nach Art 4&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 40. &amp;lt;/ref&amp;gt;)&amp;lt;/mark&amp;gt; verfügen und ihnen die erforderliche Unterstützung zukommen lassen. &lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von automatisiert erzeugten &#039;&#039;&#039;Protokollen&#039;&#039;&#039; &amp;lt;mark&amp;gt;für einen Zeitraum von zumindest 6 Monaten (wobei hier entgegenstehende datenschutzrechtliche Regelungen vorgehen würden&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 42.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;)&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, vor Verwendung oder Inbetriebnahme des Hochrisiko-KI-Systems am Arbeitsplatz. &amp;lt;mark&amp;gt;Dies umfasst sowohl den Einsatz von &amp;quot;eingebetteten&amp;quot; als auch &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Weiters sind die Mitwirkungspflichten des Betriebsrats zu berücksichtigen (vgl §§ 96 f ArbVG). Nicht umfasst sind wahrscheinlich Informationspflichten gegenüber Bewerbern, da diese tendenziell nicht unter den von dieser Bestimmung geforderten &amp;quot;Arbeitnehmer-Begriff&amp;quot; fallen&amp;lt;/mark&amp;gt;.&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet. &amp;lt;mark&amp;gt;Diese Bestimmung gilt lediglich für den Einsatz von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen nach Art 6 Abs 2 iVm Anhang III.Die danach mitzuteilende Information sollte die Zweckbestimmung und die Art der getroffenen Entscheidung beinhalten (vgl ErwGr 93) sowie - nach einer hier vertretenen Auffassung - eine vorab Information über das Recht auf Erklärung nach Art 86 AI Act, welches von KI-Entscheidungen Betroffenen das Recht zugesteht, unter gewissen Voraussetzungen vom Betreiber eine klare und aussagekräftige Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess sowie zu den wichtigsten Elementen der getroffenen Entscheidung zu erhalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe die entsprechende Argumentationslinie im Detail: &#039;&#039;Research Institute&#039;&#039;, Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025) 100 ff, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.  &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 27 Abs 4 macht überdies die Verzahnung der Grundrechte-Folgenabschätzung (GRFA) mit anderen Folgenabschätzungen deutlich und schreibt bspw vor, dass bei Vorliegen einer Datenschutz-Folgenabschätzung nach Art 35 DSGVO die GRFA diese ergänzen bzw in diese integriert werden solle.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Piltz/Zwerschke&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 27 Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme Rz 32.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Sowohl die Verpflichtungen nach Art 26 als auch die Durchführung einer GRFA nach Art 27 treffen den Betreiber unabhängig davon, ob jemand (bspw Betroffene) deren Einhaltung einfordern. Im Unterschied dazu enthält der AI Act in den Artt 85 ff sog &amp;quot;Betroffenenrechte&amp;quot;, die aktiv von betroffenen Personen geltend zu machen sind. Dazu zählt insbesondere das [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Recht auf Erklärung nach Art 86], welches das einzige Betroffenenrecht darstellt, das direkt gegen den Betreiber durchsetzbar ist.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführer oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn die genannten Personen ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen;&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt;&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das &#039;&#039;nicht&#039;&#039; als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird.&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter (Erstanbieter) nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat jedoch mit dem neuen Anbieter zusammenzuarbeiten, insb Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI Act muss beachtet werden, dass die Rollenverteilung eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters erfolgt, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden &amp;lt;mark&amp;gt;sowie den Anforderungen an die Barrierefreiheit genügen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots, &amp;lt;mark&amp;gt;Sprachassistenten, Social Bots)&amp;lt;/mark&amp;gt;, sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Pflicht kann entfallen, wenn die Interaktion mit dem KI-System aus Sicht einer angemessen informierten, aufmerksamen und verständigen Person offensichtlich ist oder beim Einsatz von KI-Systemen, die für die Strafverfolgung zugelassen sind.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 43.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
*&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 40.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Chatbots&#039;&#039;&#039; können durch einen textlichen Hinweis zu Beginn des Gesprächs oder ein dauerhaft angezeigtes grafisches Symbol vorgestellt werden.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Bei &#039;&#039;&#039;Voicebots&#039;&#039;&#039; kommt eine der Interaktion vorausgehende Ansage, welche auf den KI-Einsatz hinweist, in Betracht.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social Bots&#039;&#039;&#039; können eine Information vor und mit jeder Interaktion des Bots in sozialen Netzwerken erfordern, da das System stets mit einem neuen Personenkreis in Interaktion tritt (zB AI-Influencer).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Das KI-Büro hat am 5. November 2025 Arbeiten an einem Verhaltenskodex in Bezug auf die Kennzeichnung von KI-generierten Inhalten aufgenommen. Die entsprechenden Leitlinien werden in einem siebenmonatigen Prozess, der sich insbesondere durch die Einbindung von relevanten Stakeholdern und öffentliche Konsultationen auszeichnen soll, erarbeitet werden. Näheres unter: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Mögliche Methoden wären bspw Wasserzeichen, Metadatenidentifizierungen, Kryptografische Methoden (zB &amp;quot;Hashing&amp;quot;), Protokollierungsmethoden oder Fingerabdrücke.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 133 Satz 4 sowie mwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 84 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Denkbar ist bspw eine Umsetzung in Form eines sichtbaren Wasserzeichens, eines textlichen Hinweises, durch Hinzufügen von sog C2PA-Content Credentials&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Die C2PA („Coalition forContent Provenanceand Authenticity“) ist ein branchenübergreifendes Non-profit-Projekt, das die Entwicklung gemeinsamer technischer Standards zur Ermittlung der Herkunft von digitalen Inhalten zum Ziel hat. Siehe dazu https://c2pa.org/. So hat sich bspw LinkedIn bei der Erkennung KI-generierter Inhalte diesen Standards unterworfen: https://www.linkedin.com/help/linkedin/answer/a6282984. MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 150.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;oder bei Audioinhalten durch eine Ansage zu Beginn des Audioinhalts.&amp;lt;ref&amp;gt;&#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 148 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Verpflichtung entfällt, wenn die betreffenden Inhalte vor ihrer Veröffentlichung einer menschlichen oder redaktionellen Kontrolle unterzogen wurden und eine Person die redaktionelle Verantwortung dafür trägt. Da die Anforderungen an die menschliche bzw redaktionelle Kontrolle nicht konkretisiert werden, unterwerfen sich bspw im journalistischen Bereich zahlreiche Medien freiwilligen Leitlinien (so etwa die [https://www.blm.de/files/pdf2/ki-leitlinien.pdf Leitlinien des Medienrats der Bayerischen Landeszentrale für neue Medien (BLM) zum Einsatz von Künstlicher Intelligenz im Journalismus]).&amp;lt;ref&amp;gt;MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 163 f.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als &amp;quot;KI-Systeme mit minimalem Risiko&amp;quot; bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf den sprunghaften Durchbruch generativer KI-Modelle, die für viele verschiedene Zwecke eingesetzt werden können, in den Jahren 2022 und 2023 wurden unter Durchbrechung des bisherigen zweck- und risikoorientierten Regelungsansatzes im Entwurfsstadium des AI Act nachträglich Regeln für solche Modelle eingefügt. Ein GPAI-Modell (in früheren Entwurfsfassungen foundation model/Basismodell) ist dabei in Art 3 Z 63 AI Act definiert als ein KI-Modell, das&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;das eine erhebliche allgemeine Verwendbarkeit aufweist,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;In den von der EU-Kommission im Juli 2025 veröffentlichten Leitlinien zu GPAI-Modellen werden eine kumulierte Menge der für das Training verwendeten Berechnungen gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; von mehr als 10&amp;lt;sup&amp;gt;23&amp;lt;/sup&amp;gt; und die Fähigkeit, geschriebene oder gesprochene Sprache (aber auch Bilder oder Videos aus Text) zu generieren, als Anhaltspunkte für das Vorliegen eines GPAI-Modells angegeben, es sei denn, das Modell erfüllt die oben angegebenen Kriterien der Allgemeinheit nicht (zB weil es spezifisch nur für die Transkription von Sprache in Text trainiert wurde).&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 13 ff.&amp;lt;/ref&amp;gt; Somit ist davon auszugehen, dass die üblichen [https://de.wikipedia.org/wiki/Large_Language_Model LLM]s, wie die GPT-Serie von OpenAI, die Gemini-Serie von Google oder die Claude-Serie von Anthropic als GPAI-Modelle im Sinne dieser Definition einzustufen sind.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt.&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Abgrenzung der Rollen entlang der Wertschöpfungskette&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&amp;lt;mark&amp;gt;In Bezug auf GPAI-Modelle können folgende Rollen unterschieden werden:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Anbieter (Providers) von GPAI-Modellen:&#039;&#039;&#039; Entwickeln ein GPAI-Modell oder lassen es entwickeln und bringen es ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr oder nehmen es unter ihrem eigenen Namen oder ihrer Handelsmarke in Betrieb, sei es entgeltlich oder unentgeltlich (Art 3 Z 3 AI Act);&amp;lt;ref name=&amp;quot;:3&amp;quot;&amp;gt;Vgl Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 72 ff.&amp;lt;/ref&amp;gt; sie treffen primär die nachfolgend beschriebenen Pflichten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Modifizierer (Downstream Modifiers) von GPAI-Modellen&#039;&#039;&#039;: Fine-tunen/modifizieren&amp;lt;ref&amp;gt;Vgl ErwGr 97 Satz 5.&amp;lt;/ref&amp;gt; bestehende GPAI-Modelle anderer Anbieter; laut der Kommission ist nicht jeder Modifizierer dadurch gleich als Anbieter des modifizierten GPAI-Modells anzusehen, dies jedoch dann, wenn die Modifikation des GPAI-Modells zu einer wesentlichen Änderung der Universalität, der Leistungsfähigkeit oder des systemischen Risikos des GPAI-Modells führt, wobei als Indiz dafür gilt, dass die Anzahl der Berechnungen für die Modifikation ein Drittel jener für das Training des ursprünglichen GPAI-Modells übersteigt.&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 60 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Anbieter (Downstream Providers) von KI-Systemen:&#039;&#039;&#039; Integrieren GPAI-Modelle in KI-Systeme; ein wesentlicher Zweck der Regulierung von GPAI-Modellen ist, dass nachgelagerte Anbieter, ein GPAI-Modell in ihr KI-System integrieren, Informationen über dieses Modell erhalten und darauf basierend ihren eigenen Verpflichtungen (nach den allgemeinen Regeln des AI Act für KI-Systeme) nachkommen zu können.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Betreiber (Deployers):&#039;&#039;&#039; Nutzen ein KI-System im praktischen Einsatz.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme der Hauptgegenstand der Regulierung durch den AI Act sind (risikobasierten Ansatz), unterliegen auf Ebene der Modelle nur GPAI-Modelle einer direkten Regulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese Regulierung unterscheidet zwischen GPAI-Modellen ohne und GPAI-Modellen mit systemischem Risiko. Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act), &lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über &amp;quot;Fähigkeiten mit hohem Wirkungsgrad&amp;quot; verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; FLOPs beträgt. Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act). Oder&lt;br /&gt;
* wenn die Kommission in einer Entscheidung festgestellt hat, dass es über solche Fähigkeiten oder eine solche Wirkung verfügt (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 Abs 1 AI Act):&lt;br /&gt;
&lt;br /&gt;
# eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden&lt;br /&gt;
# Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
# eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
# eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Pflichten 1 und 2 &amp;quot;gelten nicht für Anbieter von KI-Modellen, die im Rahmen einer freien und quelloffenen Lizenz bereitgestellt werden, die den Zugang, die Nutzung, die Änderung und die Verbreitung des Modells ermöglicht und deren Parameter, einschließlich Gewichte, Informationen über die Modellarchitektur und Informationen über die Modellnutzung, öffentlich zugänglich gemacht werden. Diese Ausnahme gilt nicht für KI-Modellen [sic!] mit allgemeinem Verwendungszweck mit systemischen Risiken.&amp;quot; (Art 53 Abs 2 AI Act) In den Leitlinien der Kommission ist die (strenge) Auslegung der einzelnen Kriterien dieser Definition ausführlich dargelegt.&amp;lt;ref name=&amp;quot;:3&amp;quot; /&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 Abs 1 AI Act):&lt;br /&gt;
&lt;br /&gt;
# eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
# mögliche systemische Risiken auf Unionsebene bewerten und mindern&lt;br /&gt;
# einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
# ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung des AI Act beitragen sollen.&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von GPAI-Modellen sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 56 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 10. Juli 2025 wurde der Praxisleitfaden &amp;quot;[https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai General-Purpose AI Code of Practice]&amp;quot; veröffentlicht und von der EU-Kommission und vom KI-Gremium am 1. August 2025 gem Art 56 Abs 6 AI Act als angemessen bewertet.&amp;lt;ref&amp;gt;Europäische Kommission, Erstellung eines allgemeinen KI-Verhaltenskodex, https://digital-strategy.ec.europa.eu/de/policies/ai-code-practice.&amp;lt;/ref&amp;gt; Zu diesem wurde auch eine [https://digital-strategy.ec.europa.eu/de/faqs/questions-and-answers-code-practice-general-purpose-ai FAQ-Seite] veröffentlicht. Auch ein [https://ec.europa.eu/newsroom/dae/redirection/document/118118 Musterdokumentationsformular für Modelle] ist Teil des GPAI Code of Practice. Zusätzlich hat die EU-Kommission am 18. Juli 2025 auch [https://ec.europa.eu/newsroom/dae/redirection/document/118340 Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act] veröffentlicht.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Für Anbieter von GPAI-Modellen, die den GPAI Code of Practice unterzeichnen und diesen einhalten, können dadurch nachweisen, dass sie ihre Pflichten nach Art 53 Abs 1 und Art 55 Abs 1 AI Act erfüllen.&amp;lt;ref&amp;gt;Vgl Art 50 Abs 7 und Art 53 Abs 4 AI Act, Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 94 sowie Europäische Kommission, Der General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/de/policies/contents-code-gpai.&amp;lt;/ref&amp;gt; Damit sollen Rechtssicherheit geschaffen sowie Compliance und Vollzug vereinfacht werden. Es handelt sich dabei aber um eine freiwillige Maßnahme und es steht Anbietern von GPAI-Modellen somit frei, die entsprechenden Bestimmungen des AI Act auch auf andere Weise umzusetzen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Auf der oben verlinkten Website des GPAI Code of Practice ist angegeben, welche Anbieter von GPAI-Modellen diesen unterzeichnet haben. Darunter finden sich die meisten Anbieter der gängigen LLMs, wie Anthropic, Google, OpenAI und Mistral AI.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Stand November 2025 wurde in Österreich noch keine Behörde als zuständige Marktüberwachungsbehörde eingerichtet oder benannt. Bereits mit 2. November 2024 sind jedoch einige Behörden und öffentliche Stellen im Grundrechtsbereich gemäß Art 77 Abs 2 mit Aufsichts- und Durchsetzungsbefugnissen für Grundrechte insb im Zusammenhang mit Hochrisiko-KI ausgestattet worden, darunter die Volksanwaltschaft, die Datenschutzbehörde, die Arbeiterkammer, die Gleichbehandlungskommission, die Behindertenanwaltschaft, die KommAustria uvm.&amp;lt;ref&amp;gt;Mehr dazu unter: https://www.digitalaustria.gv.at/themen/kuenstliche-intelligenz/behoerden-art77-ai-act.html.&amp;lt;/ref&amp;gt; Dabei treffen auch die (künftig) zuständige Marktüberwachungsbehörde umfassende Kooperationspflichten, wie etwa die Meldung schwerwiegender Grundrechtsvorfälle in diesem Kontext an die genannten Einrichtungen (vgl Art 73 Abs 7 und Art 79 Abs 2 AI Act).&amp;lt;ref&amp;gt;Vgl &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 103, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Dazu hat die Kommission entsprechende Leitlinien zu veröffentlichen, die sich gerade in Ausarbeitung befinden.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung im Einzelfall betroffen sind,&lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (&amp;lt;mark&amp;gt;Recht auf Erläuterung der Entscheidungsfindung im Einzelfall gemäß Art 86 Abs 1 AI Act oder auch gemeinhin als &#039;&#039;&#039;&amp;quot;Recht auf Erklärung&amp;quot;&#039;&#039;&#039; bezeichnet&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157; &#039;&#039;Poindl/Müller,&#039;&#039; Das Recht auf Erklärung im AI Act. Betroffenenrecht mit Potenzial oder Papiertiger?, VbR 2025, 40. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei ist es unerheblich, ob das KI-System die Entscheidung gänzlich autonom getroffen hat oder unterstützend beteiligt war, es darf lediglich keine untergeordnete Rolle im Entscheidungsprozess gespielt haben.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Steht das Recht auf Erklärung zu, hat die betroffene Person einerseits das Recht, eine Erklärung über die Rolle des KI-Systems im Entscheidungsprozess zu verlangen, worunter einerseits Informationen über die zentralen Aufgaben des Systems im Entscheidungsprozess fallen (zB Zielgruppenselektion, Datenanalyse, Vorgabe der Entscheidung usw.) und andererseits auch der Grad dessen Beteiligung (gering, mittel, hoch), was umgekehrt auch den Grad menschlicher Beteiligung an der Entscheidungsfindung erfordert. Weiters sind die wichtigsten Elemente der Entscheidung zu beauskunften, beispielsweise Eingabedaten, wesentliche Entscheidungsgründe, kontrafaktische Erklärungen (inwiefern hätten andere Parameter zu einer anderen Entscheidungen geführt), die Auswirkungen der Entscheidung, die Gewichtung der einzelnen Kriterien und die Verarbeitungslogik (Informationen über die grobe Funktionsweise des KI-Systems, keine komplette Offenlegung des algorithmischen Codes). Weiters muss die Erklärung präzise, korrekt, verständlich, nicht zu technisch (keine komplexen mathematischen Formeln), aber dennoch vollständig sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letzter Referenzpunkt ist stets, ob die betroffene Person auf Basis der erlangten Informationen weitere Rechte geltend machen kann, da das Recht auf Erklärung auch oft als &amp;quot;Türöffner&amp;quot; für die Geltendmachung weiterer Rechte dient (so wird bspw eine Klage wegen Diskriminierung in einem Entscheidungsprozess erst erhoben werden können, wenn die betroffene Person genügend Informationen hat, um die Diskriminierung darzulegen, bspw die Gewichtung von bestimmten persönlichen Merkmalen, die ausschlaggebend für die Entscheidung war).&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Es handelt sich somit um ein nachgelagertes bzw &#039;&#039;ex post&#039;&#039; Recht, das nicht nur globale, abstrakte Systemerklärungen erfordert, sondern auch lokale, einzelfallbezogene Auskünfte umfasst, damit die betroffene Person die Informationen wirksam nutzbar machen kann .&amp;lt;/mark&amp;gt; Das Recht auf Erklärung steht Betroffenen gegenüber Betreibern und nicht gegenüber Anbietern zu, wobei letztere wiederum Betreibern entsprechende Betriebsanleitungen bereitzustellen haben (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung gilt nicht, sofern Ausnahmen nach Unionsrecht oder nationalem Recht bestehen (Art 86 Abs 2). Zu denken wäre hier etwa an Beschränkungen der Informationspflicht aufgrund geschützter Betriebs- oder Geschäftsgeheimnisse, wobei diese nicht zu einer pauschalen Auskunftsverweigerung führen dürfen.&amp;lt;/mark&amp;gt; Art 86 Abs 1 gilt überdies nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung Subsidiarität] ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung ist immer dann relevant, wenn Unternehmen, Behörden etc. KI in Entscheidungsfindungsprozessen einsetzen, die Auswirkungen auf bestimmte Personen(-gruppen) haben. Zu denken ist etwa an KI-basierte Entscheidungen über die Vergabe von Krediten, über die Berücksichtigung einer Bewerbung, über die Höhe einer Versicherungsprämie oder personalisierte Werbeschaltungen auf Basis von Emotionserkennung.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zum Umgang mit dem Recht auf Erklärung in der Praxis hat das &#039;&#039;Research Institute&#039;&#039; im Auftrag des Bundesministeriums für Arbeit, Soziales, Gesundheit, Pflege und Konsumentenschutz Leitlinien entwickelt:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:f1685e43-21b8-48f3-9fe5-2c61898960ae/Final_Aufkl%C3%A4rung%204.0_Unternehmensleitfaden_April2025.pdf Leitfaden für Unternehmen] im Umgang mit Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:40ba630c-39af-4b8d-8768-a69192427b09/Final_Aufkl%C3%A4rung%204.0_Konsumentinnenleitfaden_April2025.pdf Leitfaden für Konsument:innen und ihre Interessenvertretungen] zur Durchsetzung ihrer Rechte&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf Theoretischer Grundlagenbericht] zur wissenschaftlichen Fundierung der ausgesprochenen Empfehlungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Europäische Komitee für Normung (CEN) und das Europäische Komitee für elektrotechnische Normung (cenelec) wurden mittels Durchführungsbeschluss aufgefordert, bis zum 30. April 2025 bestimmte angeführte Normen auzuarbeiten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/growth/tools-databases/enorm/mandate/593_en&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Der ursprüngliche Zeitplan konnte nicht eingehalten werden und es erfolgte eine neuerliche Fristverlängerung mittels eines neuerlichen Durchführungsrechtsaktes.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl Commisson Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation as regards high-risk AI-systems in support of Regulation (EU) 2024/1689 of the European Parliament and of the Council and repealing Implementing Decision C(2023)3215 &amp;lt;nowiki&amp;gt;https://ec.europa.eu/transparency/documents-register/detail?ref=C(2025)3871&amp;amp;lang=en&amp;lt;/nowiki&amp;gt;&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Seit November 2025 liegt der erste Entwurf einer harmonisierten Norm zum Qualitätsmanagement &amp;quot;EprEN 18286, Artificial intelligence – Quality management system for EU AI Act regulatory purposes nach Art 17 AI Act zur öffentlichen Kommentierung vor.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://adamleonsmith.substack.com/p/pren-18286&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Konsultation zu diesem Normentwurf läuft bis zum 22. Jänner 2026. In den kommenden Monaten sollen weitere Normentwürfe folgen – unter anderem zu Risikomanagement, Cybersicherheit, Vertrauenswürdigkeit und Konformitätsbewertung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zudem verabschiedenen CEN/cenelec im Oktober 2025 ein Maßnahmenpaket, um die Fertigstellung wichtiger Normen, die im Rahmen von CEN-CLC/JTC 21 „Künstliche Intelligenz” entwickelt wurden, sowie der im Rahmen des Normungsantrags M/593 (und seiner Änderung M/613) geforderten Ergebnisse zu beschleunigen. Diese Maßnahmen betreffen eine Reihe von Arbeitspunkten, die die technische Grundlage für die künftigen europäischen Normen zur Unterstützung des KI-Gesetzes bilden. Die Vorstände kamen überein, im Falle einer positiven Abstimmung über die Anfrage die direkte Veröffentlichung der Entwürfe ohne separate formelle Abstimmung zuzulassen und CEN-CLC/JTC 21 zu beauftragen, eine kleine Redaktionsgruppe aus bereits aktiven Experten einzurichten, um sechs der am stärksten verzögerten Entwürfe fertigzustellen, bevor sie den jeweiligen Arbeitsgruppen zur Information und für abschließende Kommentare vorgelegt werden.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://www.cencenelec.eu/news-events/news/2025/brief-news/2025-10-23-ai-standardization/&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf die verzögerten Standards im Entwurf Digital Omnibus on AI Regulation Proposal&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;bestimmte Maßnahmen vorgeschlagen, um eine zeitnahe, reibungslose und verhältnismäßige Umsetzung bestimmter Bestimmungen des AI-Acts sicherzustellen. Als eine Maßnahme wurde dabei die Kopplung des Zeitplans für die Umsetzung der Vorschriften für hohe Risiken an die Verfügbarkeit von Normen vorgeschlagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Grundlegende Überschneidungen zwischen dem AI Act und der Datenschutz-Grundverordnung (DSGVO)&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Da KI-Systeme bzw -Modelle häufig personenbezogene Daten verarbeiten - bspw im Rahmen des Trainings eines KI-Modells oder zur Entscheidungsunterstützung in Bezug auf konkrete Personen -, stellt sich unweigerlich die Frage nach dem Zusammenwirken des AI Act mit der DSGVO.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Der Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA) des LfDI Baden-Württemberg enthält eine Auswahl von Orientierungshilfen verschiedener Aufsichtsbehörden und Gremien zu den Schnittstellen von DSGVO und KI: https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0. MwN &#039;&#039;Holtz/Ledendal,&#039;&#039; AI Data Governance - Overlaps Between the AI Act and the GDPR (iE, 2026): https://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1996843&amp;amp;dswid=-4177 sowie der [https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/DE-Bridge-Blueprint-v.0.9.pdf &amp;quot;Bridge Blueprint&amp;quot;-Entwurf] zur einheitlichen Anwendung von Datenschutz- und KI-Regulierung des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI).&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letztere knüpft ihren Anwendungsbereich nämlich an die Verarbeitung personenbezogener Daten iSd Art 4 Abs 1 DSGVO, worunter alle Informationen zu verstehen sind, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Die DSGVO ist seit 2018 in Anwendung und verfolgt den Grundsatz, dass jegliche Verarbeitung personenbezogener Daten verboten ist, es sei denn, es liegt ein Erlaubnistatbestand nach Art 6 Abs 1 DSGVO vor. Für die Verarbeitung sog &amp;quot;sensibler Daten&amp;quot; nach Art 9 DSGVO (zB Gesundheitsdaten, die ethnische Herkunft, die religiöse Weltanschauung etc.) legt sie noch strengere Maßstäbe an. Damit verfolgt die DSGVO einen horizontalen sowie prinzipienbasierten Ansatz, wonach bei der Verarbeitung personenbezogener Daten bestimmte Anforderungen und Grundsätze einzuhalten sind, ungeachtet der verwendeten Technologie, des Sektors oder des Einsatzgebiets.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 32, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus orientiert sich die Verordnung daran, inwieweit eine bestimmte Datenverarbeitung ein Risiko für die Rechte und Freiheiten natürlicher Personen darstellt (&amp;quot;risikobasierter Ansatz&amp;quot;), wonach sich letztendlich die Strenge der von ihr vorgeschriebenen Verpflichtungen bemisst.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Der AI Act erkennt das Primat der DSGVO in Art 2 Abs 7 an und statuiert, dass er deren Anwendungsbereich unberührt lässt. Somit gehen im Falle der Verarbeitung personenbezogener Daten durch eine KI-Anwendung die Regelungen der DSGVO grundsätzlich vor, während der AI Act dem ergänzend eine produktsicherheitsrechtliche Komponente beifügt, die während der Entwicklung und des Einsatzes von KI zu beachten ist.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 33, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Überschneidungen beider Rechtsakte ergeben sich bspw, sobald ein KI-Modell mit personenbezogenen Daten &#039;&#039;&#039;trainiert&#039;&#039;&#039; werden soll. In diesem Fall braucht es eine Rechtsgrundlage nach Art 6 Abs 1 DSGVO (und ggf Art 9 DSGVO), wobei hier am ehesten die berechtigten Interessen des Verantwortlichen nach lit f leg cit infrage kommen. So hat sich bspw der Facebook-Mutterkonzern Meta auf berechtigte Interessen berufen, um sein Sprachmodell &amp;quot;LLaMA&amp;quot; hinter seiner &amp;quot;Meta AI&amp;quot; mit Nutzerdaten zu trainieren. Dagegen erhob die Verbraucherschutzzentrale NRW Antrag auf Erlass einer einstweiligen Verfügung, letztendlich entschied jedoch das OLG Köln in seinem Beschluss vom 23.05.2025 (15 UKl 2/25), dass sich Meta für das KI-Training mit Nutzerdaten auf berechtigte Interessen stützen könne.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://www.verbraucherzentrale.nrw/urteilsdatenbank/digitale-welt/olg-koeln-weist-eilantrag-der-verbraucherzentrale-nrw-gegen-meta-wegen-kitraining-zurueck-108065.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Umgekehrt ist laut Art 35 DSGVO immer dann eine Datenschutz-Folgenabschätzung durchzuführen, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat, insbesondere bei Verwendung neuer Technologien. Darunter fallen gemäß §2 Abs 2 Z 4 DSFA-V&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Verordnung der Datenschutzbehörde über Verarbeitungsvorgänge, für die eine Datenschutz-Folgenabschätzung durchzuführen ist (DSFA-V), BGBl. II Nr. 278/2018.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;insbesondere Datenverarbeitung unter Einsatz von künstlicher Intelligenz, welcher jedenfalls die Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung nach sich zieht. Somit löst auch der Einsatz von KI unter gewissen Voraussetzungen datenschutzrechtliche Pflichten aus.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: Digital Services Act (DSA) vs AI Act ===&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der DSA legt einheitliche Regeln für Vermittlungsdienste mit dem Ziel fest, ein vertrauenswürdiges, (rechts-)sicheres und vorhersehbares Online-Umfeld für Verbraucher und Unternehmen durch eine harmonisierte Plattformregulierung zu gewährleisten. Ebenso zielt das Regelwerk auf den Schutz sowie die Gewährleistung einer effektiven Grundrechtsausübung und normiert umfassende Verpflichtungen für Anbieter von Online-Diensten in Form eines abgestuften Regelungsansatzes, der die unterschiedlichen Compliance-Pflichten an die Art und Größe der jeweiligen Online-Dienste knüpft. Dabei kennt der DSA folgende Anbieterkategorien: Anbieter von allgemeinen Vermittlungsdiensten, Hostingdiensten, Online- sowie Transaktionsplattformen und sehr großen Online-Plattformen (VLOPs) und -Suchmaschinen (VLOSEs). Überschneidungen mit dem AI Act können sich auf zweierlei Weise ergeben: Einerseits können KI-Anwendungen zur Generierung oder Manipulation von Inhalten verwendet werden, die dann über Vermittlungsdienste geteilt werden. Andererseits können KI-Systeme das Kernangebot des Diensteanbieters ausmachen, in der Inhaltsmoderation eingesetzt werden oder Produkt- bzw Service-Empfehlungen auf Basis von Nutzerverhalten (&amp;quot;Empfehlungsalgorithmen&amp;quot;) schalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 48, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Allgemeine Synergien sind dem [[Digital Services Act (DSA)|Eintrag über den DSA]] zu entnehmen.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
* Weiters kann es bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act in Bezug auf die notwendige Risikoanalyse kommen. &amp;lt;mark&amp;gt;So fordern die Artikel 34 und 35 DSA die Analyse jener potenzieller systemischer Risiken, die sich durch das Design, die Funktion oder die Nutzung ihrer Services ergeben, insbesondere im Zusammenhang mit algorithmischen Systemen oder Systemen zur Inhaltsmoderation. Demgegenüber legt der AI Act in Art 17 die Verpflichtung für Anbieter von Hochrisiko-KI-Systemen zur Etablierung eines Risikomanagementsystems gemäß Art 9 AI Act fest und sieht spezielle Anforderungen für Anbieter von GPAI-Modellen mit systemischem Risiko vor (Art 55 Abs 1 lit b AI Act).&amp;lt;/mark&amp;gt; Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Im Fall von Anbietern von Hochrisiko-KI-Systemen sieht der AI Act sogar explizit die Möglichkeit vor, Risikomanagementprozesse nach anderen unionsrechtlichen Bestimmungen mit jenen nach dem AI Act zu kombinieren (vgl Art 9 Abs 10 AI Act).&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 49, &amp;lt;nowiki&amp;gt;https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Art 86 AI Act normierte Recht auf Erläuterung] besteht potentiell eine Subsidiarität gegenüber anderen Auskunftsansprüchen, insb der Auskunftspflicht nach Art 15 Abs 1 lit h DSGVO iVm Art 22 DSGVO. &amp;lt;mark&amp;gt;Demnach steht Personen, die von einer automatisierten Entscheidungsfindung im Einzelfall einschließlich Profiling betroffen sind, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie ähnlich erheblich beeinträchtigt, das Recht zu, neben allgemeinen Informationen über die Verarbeitung ihrer personenbezogenen Daten aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und Auswirkungen einer derartigen Verarbeitung zu verlangen. Inhaltlich&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;richtet sich der Auskunftsanspruch nach Art 15 Abs 1 lit h DSGVO gemäß rezenter EuGH-Judikatur insb auf die Erläuterung des Verfahrens und der Grundsätze, die bei der automatisierten Verarbeitung der personenbezogenen Daten der betroffenen Person zur Anwendung kamen und zu dem bestimmten Ergebnis geführt haben.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117, Rz 58. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Frage nach einer potenziellen Subsidiarität von Art 86 AI Act gegenüber den entsprechenden datenschutzrechtlichen Vorschriften hängt von unterschiedlichen Fallszenarien ab, in denen die jeweils verwendeten Technologien und verarbeiteten Datenkategorien zu unterschiedlichen Ergebnissen führen können:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 15 Abs 1 lit h iVm Art 22 DSGVO&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsfolge&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Hochrisiko-KI-Einsatz in Entscheidungsfindungsprozessen, in denen entweder keine personenbezogenen Daten gemäß Art 4 Z 1 DSGVO verarbeitet werden (zB Verarbeitung lediglich aggregierter Daten) oder keine vollautomatisierte Entscheidung iSd Art 22 DSGVO getroffen wird (etwa weil ein Mensch maßgeblich an der Entscheidungsfindung beteiligt ist)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Das Recht auf Erklärung steht vollumfänglich wie in Art 86 Abs 1 dargelegt zu (bei Vorliegen der übrigen Voraussetzungen). Der betroffenen Person sind somit klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess und zu den wichtigsten Elementen der getroffenen Entscheidung zu übermitteln, wobei die Erklärung einzelfallbezogen und auf das konkrete Ergebnis gerichtet sein muss. Der Anwendungsbereich von Art 15 (Abs 1 lit h iVm Art 22) DSGVO ist hingegen nicht eröffnet. Das Recht, die Entscheidung anzufechten, steht - zumindest gemäß AI Act - nicht zu.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Es findet eine vollautomatisierte Entscheidungsfindung auf Basis der Verarbeitung personenbezogener Daten statt, allerdings ohne Beteiligung eines Hochrisiko-KI-Systems iSd Art 6 Abs 2 iVm Anhang III AI Act (bspw wird die Entscheidung durch einen herkömmlichen Algorithmus getroffen, der Anforderungen an ein KI-System nach Art 3 Z 1 AI Act nicht erfüllt oder das KI-System fällt nicht in den Hochrisiko-KI-Bereich)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Auskunftsanspruch gemäß Art 15 (Abs 1 lit h iVm Art 22) DSGVO steht bei Vorliegen der übrigen Voraussetzungen zu, während das Recht auf Erklärung nach Art 86 AI Act keine Anwendung findet. Es sind der betroffenen Person somit Informationen über die involvierte Logik, Tragweite und Auswirkungen der Entscheidung zu übermitteln, wobei Informationen über die Rolle des eingesetzten Systems nicht darunter fallen. Im Unterschied zu Art 86 AI Act ist in Bezug auf Art 15 Abs 1 lit h DSGVO jedoch noch unklar, ob auch eine Verpflichtung zu einer einzelfallbezogenen Begründung der konkret erzielten Ergebnisse besteht, die über eine abstrakte/allgemeine Erklärung hinausgeht.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl etwa das EuGH-Urteil in der RS Dun &amp;amp; Bradstreet, welches stärker auf das lokale Element, dh die Einzelentscheidung, abzustellen scheint (EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117). MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 71, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Art 22 Abs 3 DSGVO enthält jedoch im Gegensatz zum AI Act das Recht, die Entscheidung anzufechten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Verarbeitung personenbezogener Daten im Rahmen der Entscheidungsfindung, Einsatz eines Hochrisiko-KI-Systems, vollautomatisierte Entscheidungsfindung&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Anspruch nach Art 86 AI Act tritt ergänzend zu jenem nach der DSGVO hinzu und richtet sich auf jene Informationen, die nach Art 15 DSGVO nicht zu beauskunften sind (bspw die Rolle des KI-Systems im Entscheidungsprozess sowie jedenfalls einzelfallbezogene, lokale Erklärungen). Es handelt sich somit um eine sog &amp;quot;Lückenfüller-Position&amp;quot; von Art 86 AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Ansicht folgend und mwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 96 ff, &amp;lt;nowiki&amp;gt;https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;mark&amp;gt;In der Regel werden Betroffene in der Praxis wohl beide Ansprüche gleichzeitig geltend machen. Dies ist allerdings nur möglich, sofern beide Ansprüche auch gegenüber der selben Person bzw Einrichtung geltend zu machen sind. Denn während das Recht auf Erklärung nach Art 86 AI Act gegen den Betreiber des KI-Systems zusteht, ist der Auskunftsanspruch gemäß Art 15 Abs 1 lit h DSGVO gegen jene Person oder Stelle zu richten, welche die Entscheidung getroffen hat (welche zwar meist aber nicht zwangsläufig mit der Person des datenschutzrechtlich Verantwortlichen iSd Art 4 Z 7 DSGVO ident sein wird&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Argumentation folgend: &#039;&#039;Ziegenhorn,&#039;&#039; Wer ist Adressat des Art. 22 DSGVO? Zur Abgrenzung des Entscheiders vom Verantwortlichen, CR 2024, 586.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;). Die unterschiedlichen Rollen nach AI Act und DSGVO können somit zusammenfallen, müssen dies allerdings nicht, wodurch sich unterschiedliche Verpflichtungen für die beteiligten Akteure ergeben können.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== Produkthaftungsrichtlinie neu und Vorschlag für eine AI Liability Directive [zurückgezogen] ===&lt;br /&gt;
&lt;br /&gt;
* Die Produkthaftungsrichtlinie neu (PHRL neu) und insbesondere &amp;lt;mark&amp;gt;der (zurückgezogene)&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Commission work programme 2025, (11.2.2025) COM(2025) 45 final, 26.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Vorschlag für eine&amp;lt;/mark&amp;gt; AI Liability Directive (AILD) nehmen direkt auf den AI Act Bezug und verweisen bei der Begriffsverwendung häufig auf diesen. Die AILD kann somit nicht ohne den Kontext des AI Act verstanden werden. So sollten die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD bilden ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]). &lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act überträgt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Begleit- bzw Durchführungsgesetz, das die Sanktionen konkretisiert.  &amp;lt;mark&amp;gt;Auch die notifizierende(n) Behörde(n) und die Marktüberwachungsbehörde(n) (Art 70 AI Act) wurden in Österreich noch nicht benannt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 5: Transkriptionstool im Rahmen der Rechtspflege&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|&amp;lt;mark&amp;gt;Im Rahmen des Verfassens von Urteilen oder Protokollen wird das gesprochene Wort (Diktat des Entscheidungsorgans) digital aufgezeichnet und anschließend transkribiert. Das System ist in der Lage, mithilfe KI-gestützter Spracherkennung die jeweils Sprechenden (Speaker Diarisation) sowie juristische Begriffe und Redewendungen zu erkennen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Transkriptionssoftware liegt ein Sprachmodell (LLM) zugrunde, das auf maschinellem Lernen basiert. Dieses wird durch ein User-Interface praktisch nutzbar gemacht und stellt somit ein KI-System iSd AI Act dar.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&amp;lt;mark&amp;gt;Der Einsatz von KI in der Rechtspflege zu gewissen Zwecken kann in den Hochrisiko-KI-Bereich gemäß Art 6 Abs 2 iVm Anhang III Nr 8 lit a AI Act fallen. Solche Systeme sind jedoch nicht als hochriskant einzustufen, sofern sie für rein begleitende administrative Tätigkeiten bestimmt sind, worunter jedenfalls Spracherkennungsprogramme für das Diktieren von Entscheidungen fallen können (ErwGr 61). In einem nächsten Schritt ist die Ausnahmeregelung des Art 6 Abs 3 AI Act zu prüfen, wonach das System höchstwahrscheinlich gemäß lit a leg cit aus dem Hochrisiko-KI-Bereich ausgenommen ist, da es rein für Protokollierungszwecke eingesetzt wird und damit nur eine eng gefasste Verfahrensaufgabe übernimmt. Ebenso ist denkbar, gemäß lit d leg cit aus dem Hochrisiko-KI-Bereich ausgenommen zu sein, sofern das System lediglich eine vorbereitende Aufgabe für die Urteilserstellung übernimmt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Bejaht man hingegen das Vorliegen von Hochrisiko-KI, so treffen deren Anbieter die Pflichten der Art 8 ff AI Act und den Betreiber insbesondere die Pflichten nach Art 26 und 27 AI Act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Sofern es sich um ein KI-Modell mit allgemeinem Verwendungszweck (mit systemischem Risiko) handelt, treffen den Anbieter diesbezüglich Verpflichtungen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Unabhängig von der Risikoeinstufung des Modells bzw Systems sind darüber hinaus die Transparenzpflichten nach Art 50 AI Act zu beachten sowie ein ausreichendes Maß an KI-Kompetenz unter den Beschäftigten, die mit dem Transkriptionstool arbeiten, herzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 6: KI-System zur Filterung und Priorisierung von Bewerbungen&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Sachverhalt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen möchte eine neue Stelle besetzen und erhält unzählige Bewerbungen. Daher entschließt es sich, ein KI-basiertes System einzusetzen, das Bewerbungen filtert und mit einem Einstufungswert versieht, wodurch die Bewerbungen priorisiert werden. Die zuständigen HR-Mitarbeiter*innen weichen nicht mehr von dem Wert ab und vergeben die Stelle schließlich an jene Person, die den höchsten Einstufungswert erhalten hat.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!&amp;lt;mark&amp;gt;Einordnung AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Sofern es sich bei der Anwendung um ein KI-System nach Art 3 Z 1 AI Act handelt, ist der Anwendungsbereich des AI Act grundsätzlich eröffnet. Das Unternehmen ist jedenfalls als dessen Betreiber zu qualifizieren, da es das System in eigener Verantwortung zu beruflichen Zwecken einsetzt. Sofern es das KI-System auch selbst entwickelt / entwickeln lässt und es unter eigener Marke bzw eigenem Namen in Betrieb nimmt, ist es sogar Anbieter.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]].&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Darüber hinaus stellt das System ein &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System nach Art 6 Abs 2 iVm Anhang III Punkt 4a AI Act dar, da es bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet wird, um Bewerbungen zu filtern und Bewerber zu bewerten. Eine Ausnahme nach Art 6 Abs 3 AI Act vom Hochrisiko-KI-Bereich liegt nicht vor, da das KI-System das Ergebnis der Entscheidungsfindung wesentlich beeinflusst (von dem KI-generierten Eignungswert wird nicht mehr abgewichen). Je nach Rolle treffen das Unternehmen nun weitereichende Verpflichtungen. In den meisten Fällen wird das Unternehmen wohl als Betreiber zu klassifizieren sein, weshalb es unter anderem die Betreiberpflichten nach Art 26 AI Act zu erfüllen und unter gewissen Voraussetzungen eine Grundrechte-Folgenabschätzung nach Art 27 AI Act durchzuführen hat. Art 26 Abs 7 sieht grundsätzlich auch die spezielle Betreiberpflicht vor, vor Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz die Arbeitnehmervertreter und betroffenen Arbeitnehmer über den KI-Einsatz zu informieren. Inwieweit diese Verpflichtung auch gegenüber Bewerbern gilt, die streng genommen (noch) keine Arbeitnehmer sind, ist fraglich und wird wohl zu verneinen sind. Diese vermeintliche Rechtsschutzlücke wird jedoch ohnehin wieder durch die Verpflichtung gemäß Art 26 Abs 11 AI Act ausgeglichen, von Hochrisiko-KI-Entscheidungen betroffene Personen über diesen KI-Einsatz zu informieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= &amp;lt;mark&amp;gt;Digitaler Omnibus&amp;lt;/mark&amp;gt; =&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 19. November 2025 stellte die Europäische Kommission das sogenannte &#039;&#039;&#039;„Digital Omnibus Package“&#039;&#039;&#039; vor, ein Legislativpaket mit dem Ziel, den digitalen Rechtsrahmen der EU zu vereinfachen.&amp;lt;ref name=&amp;quot;:2&amp;quot;&amp;gt;Vgl https://ec.europa.eu/commission/presscorner/detail/de/ip_25_2718. &amp;lt;/ref&amp;gt; Ziel der Maßnahme ist, Verwaltungs- und Umsetzungskosten zu senken, Rechtsklarheit zu erhöhen und insbesondere kleine und mittlere Unternehmen (KMU) zu entlasten, da Unternehmen zunehmend Schwierigkeiten bei der Umsetzung und Koordination von Vorgaben wie etwa dem AI Act sehen. Das Paket umfasst Änderungen und Anpassungen unterschiedlicher Rechtsrahmen, so auch einige Bestimmungen des AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Inhaltliche Änderungen betreffen einerseits die Verpflichtung zur Sicherstellung von KI-Kompetenz (Art 4), welche nunmehr nicht Unternehmen bzw. Einrichtungen selbst treffen soll, sondern die Kommission und die Mitgliedstaaten sind dazu angehalten, Anbieter und Betreiber zur Sicherstellung eines angemessenen Maßes an KI-Kompetenz zu unterstützen. Ebenso stellt die Kommission eine Verzögerung der Anwendbarkeit der Hochrisiko-KI-Bestimmungen in Aussicht, welche mit 2. August 2026 bzw 2. August 2027 Anwendung erlangen sollten. Grund ist das Fehlen von entsprechenden Standards, die eigentlich bis August 2025 zu setzen waren und ohne die laut Kommission die Einhaltung der entsprechenden AI Act-Bestimmungen nicht möglich sei. Die Anwendbarkeit der Hochrisiko-KI-Bestimmungen soll sich um bis zu maximal 16 Monate verzögern, wobei die Vorschriften Geltung erlangen, sobald die Kommission die Verfügbarkeit der erforderlichen Standards und Unterstützungsinstrumente bestätigt.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:2&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus enthält der Vorschlag einen neuen Art 4a, der die Verarbeitung sensibler personenbezogener Daten zur Erkennung und Minderung von Bias unter gewissen Voraussetzungen ermöglicht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Kommissionsleitlinien und sonstige Materialen/Verhaltenskodizes&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zur Definition eines Systems der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 6. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118628&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 4. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118661&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Living Repository zur Förderung des Lernens und des Austausches über KI-Kompetenz vom 04. Februar 2025 (mit Update von April 2025): https://ec.europa.eu/newsroom/dae/redirection/document/112203&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Praxisleitfaden für KI-Modelle mit allgemeinem Verwendungszweck (General-Purpose AI Code of Practice) vom 10. Juli 2025: https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Transparenz: https://ec.europa.eu/newsroom/dae/redirection/document/118120&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Urheberrecht: https://ec.europa.eu/newsroom/dae/redirection/document/118115&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Sicherheit: https://ec.europa.eu/newsroom/dae/redirection/document/118119&amp;lt;/mark&amp;gt;  &lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act vom 18. Juli 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118340&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien und Meldevorlagen zur Meldung schwerwiegender KI-Vorfälle gemäß Art 73 AI Act (&#039;&#039;Entwurf, noch in Ausarbeitung&#039;&#039;): https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; AI Act Service Desk. Frequently Asked Questions (FAQs): https://ai-act-service-desk.ec.europa.eu/en/faq.&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Whistleblower Tool for AI Act, https://digital-strategy.ec.europa.eu/en/news/commission-launches-whistleblower-tool-ai-act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act)&amp;lt;mark&amp;gt;&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024) &amp;lt;mark&amp;gt;(2. Auflage 2026, iE)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schefzig/Kilian,&#039;&#039; BeckOK KI-Recht&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Hochrangige Expertengruppe für Künstliche Intelligenz,&#039;&#039; Ethik-Leitlinien für eine vertrauenswürdige KI (2019), https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425&amp;lt;/mark&amp;gt;&lt;br /&gt;
* [https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0 Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA)]&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4327</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4327"/>
		<updated>2025-11-27T14:39:31Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) */ Ausnahme von den Pflichten für Open Source (+Leitlinien dazu)&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. Februar 2025 (schrittweise)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen von KI-Systemen &lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD, &amp;lt;mark&amp;gt;von der Kommission zurückgezogen&amp;lt;/mark&amp;gt;)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modelle (general purpose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB Verarbeitung zur Vermeidung von Verzerrungen, Art 10), regulatory sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (zB Anbieter- und Betreiberpflichten, Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz (eingeschränkt); reine Forschungszwecke &lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) gelten seit 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (zB Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|Gewährleistung von Transparenz und Verantwortlichkeit&lt;br /&gt;
|Pflichten für Betreiber (professionelle Nutzer*innen) und Anbieter&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (zB Chatbots, Deepfakes)&lt;br /&gt;
|Informationspflichten nach der DSGVO&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
&amp;lt;mark&amp;gt;Der AI Act ist die erste EU-weite, sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) und&amp;lt;/mark&amp;gt; folgt dabei primär einem produktsicherheitsrechtlichem Ansatz, dessen vorrangiges Regulierungsziel die Sicherheit von KI-Systemen und Modellen ist. &amp;lt;mark&amp;gt;Damit ist er Teil des sog [https://single-market-economy.ec.europa.eu/single-market/goods/new-legislative-framework_en?prefLang=de &amp;quot;New Legislative Framework&amp;quot;] (NLF), einem unionsrechtlichen Maßnahmenpaket zur Produktregulierung, das auf die Verbesserung der Marktüberwachung abzielt und sich durch einheitliche Kernelemente auszeichnet (zB Konformitätsbewertungsverfahren, Selbstregulierung, Standards und einheitliche Anforderungen). Im Rahmen des Gesetzgebungsprozesses wurde der Rechtsakt - insbesondere auf Bestreben des Europäischen Parlaments - um menschenrechtliche Aspekte und Betroffenenrechte erweitert, weshalb der AI Act mittlerweile deutlich über reines Produktsicherheitsrecht hinausgeht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modelle&#039;&#039;&#039; bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot;.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei handelt es sich um &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;ableitet&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot;&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe Art 3 Z 1 AI Act. Hervorhebungen nicht im Original. &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;abzuleiten&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Hingegen soll sich nach ErwGr 12 der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen [...]&amp;quot;, womit auf eine Abgrenzung von KI von herkömmlichen Softwarelösungen und Programmierungsansätzen abgezielt wird.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zusammenfassend möchte der EU-Gesetzgeber mit dieser Definition einerseits Rechtssicherheit schaffen, allerdings immer noch Raum für technologischen Fortschritt lassen, um den Anwendungsbereich des AI Act nicht von Vornherein vor potenziellen künftigen technologischen Entwicklungen zu verschließen.&amp;lt;/mark&amp;gt; Dennoch wurde die Definition als zu vage und unbestimmt empfunden. So wurden diverse Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Um den Begriff des KI-Systems also zu konkretisieren und Unsicherheiten zu beseitigen, sollte die Kommission gemäß Art 96 Abs 1 lit f AI Act Leitlinien vorlegen, und damit eine einheitliche Anwendung des Regelwerks fördern sowie Rechtsicherheit gewährleisten&amp;lt;/mark&amp;gt;.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle, &amp;lt;mark&amp;gt;einfache Datenverarbeitungssysteme, auf klassische Heuristik gestützte Systeme, einfache Vorhersagesysteme etc.&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Eine Positiv-Liste, welche Systeme jedenfalls unter den KI-Begriff fallen, enthalten die Leitlinien allerdings nicht. Sie orientieren sich vielmehr an den 7 Kernelementen der KI-Definition gemäß Art 3 Z 1 AI Act. Es wird überdies betont, dass nicht alle Elemente kontinuierlich in den beiden Hauptphasen des Lebenszyklus von KI (&amp;quot;building phase&amp;quot; / &amp;quot;pre-deployment&amp;quot; oder &amp;quot;use phase&amp;quot; / &amp;quot;post-deployment&amp;quot;) vorhanden sein müssen und, dass sich die Leitlinien kontinuierlich weiterentwickeln sollen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Folgende Konkretisierungen der KI-Definition und Beispiele sind den Leitlinien zu entnehmen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Elemente der KI-Definition&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Erläuterungen in den Leitlinien der EU-Kommission&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Maschinengestütztes System&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;KI benötigt Hardware- und Softwarekomponenten&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB eine Hardwareinfrastruktur wie processing units, Speicher, Input/Output-Schnittstellen und Software (Code, Programme etc.)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;autonomer Betrieb (in unterschiedlichem Grade)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erfordert einen gewissen Grad an Unabhängigkeit von menschlichem Eingreifen, wobei Systeme, die vollständig manuelle menschliche Interaktion erfordern, nicht darunter fallen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Umfasst sind Systeme, die zwar einen manuellen Input erfordern, aber von selbst einen Output generieren (zB Chatbots)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anpassungsfähigkeit nach Betriebsaufnahme (optional)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Selbstlernfähigkeiten (nicht zwingend erforderlich); darunter versteht man, ob sich das Verhalten des Systems während seiner Verwendung anpassen oder verändern kann (zB automatisches Lernen, wie Muster oder Beziehungen zwischen Daten erkannt werden können).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungsfähigkeit&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Inferenz, Schlüsseleigenschaft; dient der Abgrenzung von KI-Systemen von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen. Nicht umfasst sind hingegen Systeme, die nur von Menschen programmierten Regeln folgen und automatisiert Operationen ausführen. Die Ableitungsfähigkeit bedeutet daher die Erlernung allgemeiner Konzepte statt fester, vorprogrammierter Regeln.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Bsp: maschinelles Lernen, logik- und wissensgestützte Systeme (Schlussfolgerungen mittels Deduktion oder Induktion)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitung aus Eingaben für implizite oder explizite Ziele&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungen müssen nach entweder:&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;expliziten Zielen (klar definierte, direkt in den Code programmierte Ziele, Optimierung von Kostenfunktionen, Wahrscheinlichkeitsberechnung) oder&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;impliziten Zielen (Ableitung des Ziels aus dem Verhalten oder den dahinterstehenden Annahmen des Systems; bspw Trainingsdaten oder Interaktion des Systems mit Umwelt) erfolgen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erzeugung von Ausgaben&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ausgabe-Arten umfassen unter anderem&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Vorhersagen (Schätzungen unbekannter Werte basierend auf komplexen Datenmustern)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Inhalte (Texte, Bilder, Videos oder Musik)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Empfehlungen (Vorschläge für Maßnahmen, Produkte oder Dienstleistungen, die hochgradig personalisiert sind und Massendaten nutzen).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Entscheidungen (Vollautomatisierte Schlussfolgerungen oder Auswahlentscheidungen, die Prozesse automatisieren, die üblicherweise menschlichem Urteilsvermögen vorbehalten sind)&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;zB die generierten Inhalte von Chatbots, Produktvorschläge, Echtzeit-Vorhersagen, Auswahlentscheidungen&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Beeinflussung physischer oder virtueller Umgebungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Frage, ob das System einen aktiven Einfluss auf die Umgebungen hat, in denen es eingesetzt wird, sei es auf materielle physische Objekte oder auf digitale Räume&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB Roboterarm, Software-Ökosysteme, Datenströme&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}  &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI-Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit aus, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). &amp;lt;mark&amp;gt;Man kann hier den Vergleich zu einem KFZ ziehen, wobei das KI-Modell den Motor darstellt, der die eigentliche &amp;quot;Arbeit&amp;quot; leistet. Um jedoch fahrtüchtig zu sein, bedarf es nicht nur eines Motors, sondern das Fahrzeug benötigt darüber hinaus eine Karosserie, Räder, ein Lenkrad etc. Das wiederum bezeichnet das KI-System, welches das Modell erst durch seine Schnittstellen, seine Benutzeroberfläche etc. &amp;quot;fahrtüchtig&amp;quot; und damit nutzbar macht.&amp;lt;/mark&amp;gt; Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen &amp;quot;Nutzer&amp;quot;) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder sich in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollen:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität), unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act trat am &#039;&#039;&#039;1. August 2024&#039;&#039;&#039; in Kraft und wird generell am &#039;&#039;&#039;2. August 2026&#039;&#039;&#039; anwendbar (Art 113 AI Act). Gestaffelt erlangen einige Bestimmungen jedoch bereits vorab oder danach Geltung:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab &#039;&#039;&#039;2. August 2025&#039;&#039;&#039;&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem &#039;&#039;&#039;2. August 2027&#039;&#039;&#039;&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 111 Abs 2 AI Act enthält dabei jedoch eine sog „grandfathering“-Klausel, nach welcher der AI Act für Betreiber von Hochrisiko-KI-Systemen, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, nur dann gilt, wenn diese Systeme danach in ihrer Konzeption erheblich verändert wurden.&amp;lt;ref&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 23, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Verpflichtung zur Maßnahmenergreifung gilt für Betreiber und Anbieter gleichermaßen und ist ferner unabhängig von der Risikoklasse der infragestehenden KI-Anwendung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Unter KI-Kompetenz versteht man grundsätzlich &amp;quot;die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.&amp;quot;&amp;lt;ref&amp;gt;Vgl die Definition in Art 3 Z 56 AI Act.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dies umfasst die notwendigen Kompetenzen, um fundierte Entscheidungen über KI-Systeme zu treffen, technische Elemente zu verstehen sowie korrekt anzuwenden, die Auswirkungen von KI-basierten Entscheidungen auf Betroffene zu verstehen und KI-generierte Ausgaben angemessen zu interpretieren.&amp;lt;ref name=&amp;quot;:1&amp;quot;&amp;gt;Vgl ErwGr 20 AI Act. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dazu gehört auch, den einschlägigen Akteuren der KI-Wertschöpfungskette jene erforderlichen Kenntnisse zu vermitteln, um die Einhaltung und Durchsetzung der Vorschriften des AI Act zu gewährleisten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Weitere Konkretisierungen oder zwingende Mindestvorgaben für die Sicherstellung der KI-Kompetenz enthält der AI Act allerdings nicht und betont sogar, dass die Konzepte der KI-Kompetenz in Bezug auf den jeweiligen Kontext unterschiedlich sein können.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:1&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Die EU-Kommission hat daher ein [https://digital-strategy.ec.europa.eu/de/library/living-repository-foster-learning-and-exchange-ai-literacy &amp;quot;Living Repository&amp;quot;] angelegt, in dem Unternehmen ihre Praktiken in Bezug auf KI-Kompetenz eingetragen haben. Das Repository wird laufend ergänzt, ist jedoch nicht rechtsverbindlich. Weiters bilden die darin enthaltenen Praktiken keine Garantie zur Compliance mit Art 4 AI Act, allerdings stellen sie eine gute Orientierung dar, welche Maßnahmen zur Sicherstellung von KI-Kompetenz in unterschiedlichen Branchen bereits ergriffen werden. Häufig genannte Praktiken umfassen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne eLearning-Plattformen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne Weiterbildungen und Trainingsprogramme,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Kenntnis-basierte Schulungen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Video-/Podcast-Reihen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;spielebasierte Trainings,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Erstellung von KI-Verhaltenskodizes und Risikobewertungssystemen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;eigene Chatbots zum Training im Umgang mit Sprachmodellen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Denkbar ist überdies die Teilnahme an externen Fortbildungen und Schulungen, die Entwicklung von internen Richtlinien (&amp;quot;KI-Guidelines&amp;quot;) oder die Schaffung von sog &amp;quot;KI-Beauftragten&amp;quot; in der Organisation. Ob die Schulungsmaßnahmen fortlaufend zu erfolgen haben, ist rechtlich nicht vorgeschrieben, wird allerdings anzunehmen sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Dieser Ansicht folgend: &#039;&#039;Siglmüller&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 4 KI-Kompetenz Rz 5.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Ebensowenig sind die genauen Inhalte der Kompetenzvermittlungsmaßnahmen definiert. Es kann jedenfalls davon ausgegangen werden, dass diese zielgruppengerecht und zugeschnitten auf unterschiedliche Bedürfnisse erfolgen sollten. Weiters werden sie sich bei manchen Branchen, KI-Einsatzgebieten oder Personengruppen nicht lediglich auf rechtliche oder technische Anforderungen beschränken, sondern ebenso soziale und ethische Komponenten umfassen. Bei der Entwicklung und Nutzung von GPAI-Modellen wird beispielsweise die Vermittlung von Kenntnissen im Zusammenhang mit Urheberrecht, Datenschutz, &amp;quot;Bias&amp;quot; (Verzerrungen) oder &amp;quot;Halluzinationen&amp;quot; (erfundene falsche Ausgaben) sinnvoll sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger,&#039;&#039; Wissenskultur im KI-Zeitalter – eine Auseinandersetzung mit der KI-Kompetenz nach Art 4 AI Act und ihren praktischen Implikationen, ZIIR 2025, 250.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die EU-Kommission hat darüber hinaus eine [https://digital-strategy.ec.europa.eu/de/faqs/ai-literacy-questions-answers &amp;quot;FAQ-Seite&amp;quot;] mit Fragen und Antworten zur KI-Kompetenz angelegt, um einen besseren Überblick über die Anforderungen zu geben.&amp;lt;/mark&amp;gt;    &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten, &amp;lt;mark&amp;gt;da sie besonders schädlich sind, enormes Missbrauchspotenzial aufweisen und im Widerspruch zu europäischen Grundrechten und Grundfreiheiten stehen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 28 AI Act.&amp;lt;/mark&amp;gt; MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt; (Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt; Folgende Praktiken sind davon umfasst: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Praktik&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Nicht erfasste Praktiken&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsgrundlage&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Unterschwellige Beeinflussung außerhalb des Bewusstseins oder manipulative/täuschende Techniken&#039;&#039;&#039;, wodurch die freie Entscheidungsfähigkeit von Personen beeinträchtigt wird und ein Schaden mit hinreichender Wahrscheinlichkeit eintritt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ableitung sensibler Informationen aus Gehirnen von Nutzern über Maschine-Gehirn-Schnittstellen&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 29 AI Act sowie Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 66.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Chatbots, die zur Selbstverletzung verleiten&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 87.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Unterschwellige visuelle oder auditive Reize bzw generelle sensorische Manipulation&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 65 und 68.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erlaubt ist hingegen der Einsatz eines KI-Systems, das personalisierte Empfehlungen auf der Grundlage transparenter Algorithmen und Nutzerpräferenzen verwendet, und sich nicht absichtlich manipulativer Techniken bedient.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 128.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit a&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Ausnutzen der Vulnerabilität/Schutzbedürftigkeit&#039;&#039;&#039; aufgrund des Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine KI-Begleit-App, die durch gewisse Sprachmuster und Verhaltensweisen gezielt emotionale Abhängigkeiten und ungesunde Bindungen bei älteren Menschen erzeugt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-gestütztes Spielzeug, das Kinder zu riskanten Herausforderungen ermutigt oder durch süchtig machende Techniken zu übermäßigem Spielen anregt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte &amp;quot;Grooming-Praktiken&amp;quot; (gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht), um Mädchen mit Behinderung im Internet anzusprechen und zu manipulieren&amp;lt;ref&amp;gt;Vgl Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 88 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Kinder beim Lernen einer Fremdsprache durch den Einsatz unterschwelliger Techniken unterstützen soll, sofern sie transparent arbeitet und die Nutzerautonomie wahrt.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Benommenheit und Ermüdung bei Fahrern erkennen und sie im Einklang mit den Sicherheitsvorschriften mit Warnmeldungen auf Ruhepausen hinweisen, gelten ebenso nicht als Ausnutzung von Vulnerabilitäten.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 130ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit b&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social scoring&#039;&#039;&#039; (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Verwendung eines KI-Systems zur Schätzung der Betrugswahrscheinlichkeit bei Empfängern von Haushaltszulagen durch das Sozialamt, das sich auf Merkmale stützt, die in sozialen Kontexten ohne offensichtlichen Zusammenhang mit oder Relevanz für die Bewertung von Betrug erhoben oder abgeleitet werden, wie zB ein Ehepartner mit einer bestimmten Staatsangehörigkeit oder ethnischen Herkunft, der Besitz eines Internetanschlusses, das Verhalten auf sozialen Plattformen oder die Leistung am Arbeitsplatz etc.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems durch eine öffentliche Stelle, um für die Früherkennung gefährdeter Kinder anhand von Kriterien wie der psychischen Gesundheit und Arbeitslosigkeit der Eltern, aber auch anhand von aus verschiedenen Kontexten abgeleiteten Informationen über das soziale Verhalten der Eltern Familienprofile zu erstellen. Auf der Grundlage der erzielten Bewertung werden Familien für Kontrollen ausgewählt und als „gefährdet“ geltende Kinder werden aus ihren Familien genommen, unter anderem auch in Fällen geringfügiger Übertretungen seitens der Eltern, wie zB gelegentlich verpasste Arzttermine oder verhängte Verkehrsstrafen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine Regierung führt ein umfassendes KI-gestütztes System ein, das die Bürgerinnen und Bürger auf der Grundlage ihres Verhaltens in verschiedenen Lebensbereichen wie sozialen Interaktionen, Online-Aktivitäten, Kaufgewohnheiten und Pünktlichkeit bei der Begleichung von Rechnungen überwacht und einstuft. Menschen mit einer niedrigeren Bewertung müssen damit rechnen, dass sie eingeschränkten Zugang zu öffentlichen Dienstleistungen erhalten, höhere Zinsen auf Kredite zahlen und auf Reisen und bei der Suche nach einer Wohnung oder sogar einem Arbeitsplatz Schwierigkeiten haben.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 166 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Bonitätsprüfung natürlicher Personen auf Basis persönlicher Merkmale wie dem Einkommen vor Vergabe eines Kredits.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basierte Erhebung von Geschwindigkeitsüberschreitungen oder hochriskantem Fahrverhalten, die zur Erhöhung der KFZ-Versicherungsprämien führen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte gezielte kommerzielle Werbung fällt nicht in den Anwendungsbereich, wenn sie auf relevanten Daten (z. B. Nutzerpräferenzen) beruht, im Einklang mit den Rechtsvorschriften der Union über Verbraucherschutz, Datenschutz und digitale Dienste erfolgt und nicht zu einer Schlechterstellung oder Benachteiligung führt, die in keinem angemessenen Verhältnis zur Tragweite des sozialen Verhaltens des Nutzers steht (z. B. ausbeuterische und unfaire differenzierte Preisgestaltung).&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 177.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit c&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Bewertung des Risikos, dass eine Person eine Straftat&#039;&#039;&#039; begeht (ausschließlich aufgrund von Profiling)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Eine Polizeidienststelle verwendet KI-gestützte Risikobewertungsinstrumente, um das Risiko zu bewerten, dass kleine Kinder und Jugendliche an „künftigen Gewalttaten und Eigentumsdelikten“ beteiligt sein werden. Das System bewertet Kinder auf der Grundlage ihrer Beziehungen zu anderen Menschen und deren vermeintlichen Risikoniveaus, dh es wird eventuell davon ausgegangen, dass bei Kindern ein höheres Risiko für die Begehung von Straftaten besteht, einfach weil sie mit einer anderen Person wie einem Geschwisterkind oder einem Freund verbunden sind, bei der eine hohe Risikobewertung vorliegt. Das Risikoniveau der Eltern kann sich ebenfalls auf das Risikoniveau eines Kindes auswirken.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 202.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Standortbezogene oder geodatenbasierte Vorhersagen oder ortsbezogene Verbrechensvorhersagen (zB KI-System zur Berechnung der Kriminalitätswahrscheinlichkeit in bestimmten Stadtgebieten oder von Schmuggelrouten)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Unterstützung der durch Menschen durchgeführten Bewertung, die sich auf objektive und überprüfbare Tatsachen stützt, die in Zusammenhang mit einer kriminellen Aktivität stehen (zB Profiling zur Vorhersage gefährlichen Verhaltens in einer Menschenmenge, KI-basiertes Profiling von Personen, gegen die bereits ein Verdacht besteht, der auf mehreren überprüfbaren, objektiven Tatsachen beruht).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basiertes Profiling in Bezug auf juristische Personen&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur individuellen Vorhersage von Ordnungswidrigkeiten (zB Bagatellverkehrsdelikte)&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 212 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit d&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erstellung/Erweiterung von &#039;&#039;&#039;Datenbanken&#039;&#039;&#039; zur Gesichtserkennung durch &#039;&#039;&#039;ungezieltes Auslesen von Gesichtsbildern&#039;&#039;&#039;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen für Gesichtserkennungssoftware sammelt Bilder von Gesichtern, die mit einem „automatisierten Bildausleser“, der das Internet durchsucht und Bilder mit menschlichen Gesichtern erkennt, aus sozialen Medien (zB Facebook, X) ausgelesen wurden. Der Bildausleser sammelt diese Bilder mit allen damit verbundenen Informationen (wie der Quelle des Bildes (URL), der Geolokalisierung und manchmal den Namen der einzelnen Personen). Die Gesichtsmerkmale werden dann aus den Bildern extrahiert und in mathematische Darstellungen umgewandelt, die für die Indexierung und den künftigen Vergleich mit Hashtags versehen werden. Wenn ein Nutzer das Bild einer Person in das KI-System hochlädt, wird dieses System bestimmen, ob dieses Bild mit einem Gesicht in der Datenbank übereinstimmt.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 232.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Das ungezielte Auslesen anderer biometrischer Daten als Gesichtsbilder (zB Stimmaufnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Gesichtsbilddatenbanken, die nicht für die Erkennung von Personen verwendet werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Gesichtsbilder aus dem Internet sammeln, um KI-Modelle zur Erzeugung neuer Bilder fiktiver Personen zu entwickeln&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit e&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Emotionserkennungssysteme&#039;&#039;&#039; am Arbeitsplatz oder in Bildungseinrichtungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das beispielsweise aus Gesten, Stirnrunzeln oder fehlendem Lächeln ableitet, dass ein Mitarbeiter unglücklich, traurig oder gegenüber den Kunden wütend ist&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Systeme, die aus Stimmführung oder Körpersprache ableiten, dass ein Schüler zornig und im Begriff ist, gewalttätig zu werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Emotionen aus Tastenanschlägen (Art des Tippens), Gesichtsausdrücken, Körperhaltungen oder Bewegungen ableitet, beruht auf biometrischen Daten und fällt in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die den emotionalen Ton in hybriden Arbeitsteams überwachen, indem sie Emotionen aus Stimm- und Bildaufnahmen hybrider Videokonferenzen erkennen und ableiten, was in Regel der Förderung des sozialen Bewusstseins, des Managements emotionaler Dynamik und der Konfliktverhütung dienen würde&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems bei Online-Prüfungen zur Erkennung von Emotionen wie Erregungs- und Angstzustände&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung zur Bewertung des Wohlbefindens, des Motivationsniveaus und der Arbeits- oder Lernzufriedenheit von Studierenden oder Arbeitnehmern.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der Einsatz von KI-Erkennungssystemen, um auf die Ermüdung eines Berufspiloten oder -fahrers zu schließen, ihn zu warnen und ihm zu empfehlen, zur Vermeidung von Unfällen Pausen einzulegen, da Emotionserkennung keine physischen Zustände wie Schmerzen oder Ermüdung einschließt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das aus schriftlichen Texten (Analysen von Inhalt und Stimmung) Emotionen ableitet, um den Stil oder den Ton eines bestimmten Artikels zu bestimmen, beruht nicht auf biometrischen Daten und fällt daher nicht in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Werden Emotionserkennungssysteme nur zu persönlichen Schulungszwecken eingesetzt, sind sie zulässig, sofern die Ergebnisse nicht Personen mit Personalverantwortung zur Verfügung gestellt werden und keine Auswirkungen auf das Arbeitsverhältnis haben&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die durch eine Bildungseinrichtung erfolgende Verwendung einer KI-gestützten Software zur Verfolgung der Augenbewegungen bei Online-Prüfungen Studierender, um den Fixierungspunkt und die Bewegung der Augen zu verfolgen (um beispielsweise zu erkennen, ob unerlaubtes Material verwendet wird), ist nicht verboten, da das System Emotionen weder erkennt noch ableitet&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung aus medizinischen Gründen zur Unterstützung von Arbeitnehmern oder Studierenden mit Autismus und zur Verbesserung der Barrierefreiheit für blinde oder gehörlose Menschen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit f&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Kategorisierung,&#039;&#039;&#039; Ableitung von sensiblen Daten (religiöse Weltanschauung, politische Einstellung)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Personen, die auf einer Plattform sozialer Medien aktiv sind, nach ihrer angenommenen politischen Ausrichtung kategorisiert, indem es die biometrischen Daten der von ihnen auf die Plattform hochgeladenen Fotos analysiert, um ihnen gezielte politische Nachrichten zu übermitteln&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;ein System zur biometrischen Kategorisierung, das für sich in Anspruch nimmt, die religiöse Ausrichtung einer Person aus ihren Tätowierungen oder ihrem Gesicht ableiten zu können.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 280 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die mit der Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze, auch zu Strafverfolgungszwecken, befasst sind (zB bei Verdacht auf Darstellungen sexuellen Kindesmissbrauchs)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;die Kategorisierung von Patienten, bei der Bilder nach ihrer Haut- oder Augenfarbe verwendet werden, für medizinische Diagnosen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 284 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit g&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Echtzeit-Fernidentifizierungssysteme&#039;&#039;&#039; in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die polizeiliche Verwendung von Systemen zur biometrischen Echtzeit-Fernidentifizierung zu dem Zweck, Ladendiebe zu identifizieren und ihre Gesichtsbilder mit Kriminaldatenbanken zu vergleichen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 328.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung von Echtzeit-Gesichtserkennungstechniken durch die Polizei nach einem schweren Terroranschlag auf einen Weihnachtsmarkt mit zwölf Toten, um den Täter zu identifizieren und festzustellen, wohin er flieht. In diesem Zusammenhang nutzen sie auch die Echtzeit-Gesichtserkennungstechnik des nahe gelegenen Bahnhofs und der Zielbahnhöfe der Züge, die kurz nach dem Angriff von dort abgehen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 354.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit h&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&amp;lt;br /&amp;gt;&lt;br /&gt;
Einige dieser Praktiken sind darüber hinaus bereits nach anderen Rechtsvorschriften verboten, so beispielsweise gewisse manipulative und täuschende Techniken als &amp;quot;dark patterns&amp;quot; nach dem [[Digital Services Act (DSA)|Digital Services Act]] (gilt nur für bestimmte Plattform-Anbieter) oder die Verarbeitung biometrischer Daten zur Identifizierung einer Person nach Art 9 Abs 1 DSGVO, sofern keine der in Abs 2 genannten Ausnahmen vorliegt. Gemäß der neuen Plattformarbeitsrichtlinie&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Richtlinie (EU) 2024/2831 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit, ABl L 11. 11. 2024.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;, die bis Dezember 2026 in nationales Recht umzusetzen ist, ist überdies der Einsatz von automatisierten Überwachungs- und Entscheidungssystemen zur Erfassung personenbezogener Daten über den emotionalen oder psychischen Zustand einer Person (Emotionserkennung) verboten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;MwN &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2024) Art 5 Rz 104.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act klassifiziert Hochrisiko-KI-Systeme in Art 6. Dabei kennt er zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige&amp;quot; Hochrisiko-KI-Systeme bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei folgenden Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder stellt selbst ein solches Produkt dar&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten: bspw biometrische Identifizierung, kritische Infrastrukturen, grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle, Justiz und demokratische Prozesse).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis einer Entscheidungsfindung, an der das System beteiligt ist, wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot; &amp;lt;mark&amp;gt;Als Profiling gilt dabei iSd Art 4 Abs 4 DSGVO jede automatisierte Verarbeitung personenbezogener Daten, die darin besteht, bestimmte persönliche Aspekte einer Person zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, Gesundheit, persönliche Vorlieben, Zuverlässigkeit, Verhalten etc. zu analysieren oder vorherzusagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Europäische Kommission hat im Rahmen von Public Consultations unter anderem auch Rückmeldungen zu Anforderungen an Hochrisiko-KI-Systeme eingeholt, die eine Grundlage für Leitlinien bilden sollen, welche im Februar 2026 veröffentlicht werden sollen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;European Commission, Commission launches public consultation on high-risk AI systems, https://digital-strategy.ec.europa.eu/en/news/commission-launches-public-consultation-high-risk-ai-systems (Stand 6.6.2025).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Pflichten für Betreiber von Hochrisiko-KI-Systemen&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Betreiberpflichten nach Art 26 AI Act&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis &amp;lt;mark&amp;gt;([https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#KI-Kompetenz/AI_literacy_(Art_4_AI_Act) &amp;quot;KI-Kompetenz&amp;quot;] nach Art 4&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 40. &amp;lt;/ref&amp;gt;)&amp;lt;/mark&amp;gt; verfügen und ihnen die erforderliche Unterstützung zukommen lassen. &lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von automatisiert erzeugten &#039;&#039;&#039;Protokollen&#039;&#039;&#039; &amp;lt;mark&amp;gt;für einen Zeitraum von zumindest 6 Monaten (wobei hier entgegenstehende datenschutzrechtliche Regelungen vorgehen würden&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 42.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;)&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, vor Verwendung oder Inbetriebnahme des Hochrisiko-KI-Systems am Arbeitsplatz. &amp;lt;mark&amp;gt;Dies umfasst sowohl den Einsatz von &amp;quot;eingebetteten&amp;quot; als auch &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Weiters sind die Mitwirkungspflichten des Betriebsrats zu berücksichtigen (vgl §§ 96 f ArbVG). Nicht umfasst sind wahrscheinlich Informationspflichten gegenüber Bewerbern, da diese tendenziell nicht unter den von dieser Bestimmung geforderten &amp;quot;Arbeitnehmer-Begriff&amp;quot; fallen&amp;lt;/mark&amp;gt;.&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet. &amp;lt;mark&amp;gt;Diese Bestimmung gilt lediglich für den Einsatz von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen nach Art 6 Abs 2 iVm Anhang III.Die danach mitzuteilende Information sollte die Zweckbestimmung und die Art der getroffenen Entscheidung beinhalten (vgl ErwGr 93) sowie - nach einer hier vertretenen Auffassung - eine vorab Information über das Recht auf Erklärung nach Art 86 AI Act, welches von KI-Entscheidungen Betroffenen das Recht zugesteht, unter gewissen Voraussetzungen vom Betreiber eine klare und aussagekräftige Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess sowie zu den wichtigsten Elementen der getroffenen Entscheidung zu erhalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe die entsprechende Argumentationslinie im Detail: &#039;&#039;Research Institute&#039;&#039;, Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025) 100 ff, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.  &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 27 Abs 4 macht überdies die Verzahnung der Grundrechte-Folgenabschätzung (GRFA) mit anderen Folgenabschätzungen deutlich und schreibt bspw vor, dass bei Vorliegen einer Datenschutz-Folgenabschätzung nach Art 35 DSGVO die GRFA diese ergänzen bzw in diese integriert werden solle.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Piltz/Zwerschke&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 27 Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme Rz 32.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Sowohl die Verpflichtungen nach Art 26 als auch die Durchführung einer GRFA nach Art 27 treffen den Betreiber unabhängig davon, ob jemand (bspw Betroffene) deren Einhaltung einfordern. Im Unterschied dazu enthält der AI Act in den Artt 85 ff sog &amp;quot;Betroffenenrechte&amp;quot;, die aktiv von betroffenen Personen geltend zu machen sind. Dazu zählt insbesondere das [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Recht auf Erklärung nach Art 86], welches das einzige Betroffenenrecht darstellt, das direkt gegen den Betreiber durchsetzbar ist.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführer oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn die genannten Personen ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen;&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt;&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das &#039;&#039;nicht&#039;&#039; als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird.&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter (Erstanbieter) nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat jedoch mit dem neuen Anbieter zusammenzuarbeiten, insb Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI Act muss beachtet werden, dass die Rollenverteilung eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters erfolgt, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden &amp;lt;mark&amp;gt;sowie den Anforderungen an die Barrierefreiheit genügen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots, &amp;lt;mark&amp;gt;Sprachassistenten, Social Bots)&amp;lt;/mark&amp;gt;, sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Pflicht kann entfallen, wenn die Interaktion mit dem KI-System aus Sicht einer angemessen informierten, aufmerksamen und verständigen Person offensichtlich ist oder beim Einsatz von KI-Systemen, die für die Strafverfolgung zugelassen sind.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 43.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
*&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 40.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Chatbots&#039;&#039;&#039; können durch einen textlichen Hinweis zu Beginn des Gesprächs oder ein dauerhaft angezeigtes grafisches Symbol vorgestellt werden.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Bei &#039;&#039;&#039;Voicebots&#039;&#039;&#039; kommt eine der Interaktion vorausgehende Ansage, welche auf den KI-Einsatz hinweist, in Betracht.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social Bots&#039;&#039;&#039; können eine Information vor und mit jeder Interaktion des Bots in sozialen Netzwerken erfordern, da das System stets mit einem neuen Personenkreis in Interaktion tritt (zB AI-Influencer).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Das KI-Büro hat am 5. November 2025 Arbeiten an einem Verhaltenskodex in Bezug auf die Kennzeichnung von KI-generierten Inhalten aufgenommen. Die entsprechenden Leitlinien werden in einem siebenmonatigen Prozess, der sich insbesondere durch die Einbindung von relevanten Stakeholdern und öffentliche Konsultationen auszeichnen soll, erarbeitet werden. Näheres unter: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Mögliche Methoden wären bspw Wasserzeichen, Metadatenidentifizierungen, Kryptografische Methoden (zB &amp;quot;Hashing&amp;quot;), Protokollierungsmethoden oder Fingerabdrücke.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 133 Satz 4 sowie mwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 84 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Denkbar ist bspw eine Umsetzung in Form eines sichtbaren Wasserzeichens, eines textlichen Hinweises, durch Hinzufügen von sog C2PA-Content Credentials&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Die C2PA („Coalition forContent Provenanceand Authenticity“) ist ein branchenübergreifendes Non-profit-Projekt, das die Entwicklung gemeinsamer technischer Standards zur Ermittlung der Herkunft von digitalen Inhalten zum Ziel hat. Siehe dazu https://c2pa.org/. So hat sich bspw LinkedIn bei der Erkennung KI-generierter Inhalte diesen Standards unterworfen: https://www.linkedin.com/help/linkedin/answer/a6282984. MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 150.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;oder bei Audioinhalten durch eine Ansage zu Beginn des Audioinhalts.&amp;lt;ref&amp;gt;&#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 148 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Verpflichtung entfällt, wenn die betreffenden Inhalte vor ihrer Veröffentlichung einer menschlichen oder redaktionellen Kontrolle unterzogen wurden und eine Person die redaktionelle Verantwortung dafür trägt. Da die Anforderungen an die menschliche bzw redaktionelle Kontrolle nicht konkretisiert werden, unterwerfen sich bspw im journalistischen Bereich zahlreiche Medien freiwilligen Leitlinien (so etwa die [https://www.blm.de/files/pdf2/ki-leitlinien.pdf Leitlinien des Medienrats der Bayerischen Landeszentrale für neue Medien (BLM) zum Einsatz von Künstlicher Intelligenz im Journalismus]).&amp;lt;ref&amp;gt;MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 163 f.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als &amp;quot;KI-Systeme mit minimalem Risiko&amp;quot; bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf den sprunghaften Durchbruch generativer KI-Modelle, die für viele verschiedene Zwecke eingesetzt werden können, in den Jahren 2022 und 2023 wurden unter Durchbrechung des bisherigen zweck- und risikoorientierten Regelungsansatzes im Entwurfsstadium des AI Act nachträglich Regeln für solche Modelle eingefügt. Ein GPAI-Modell (in früheren Entwurfsfassungen foundation model/Basismodell) ist dabei in Art 3 Z 63 AI Act definiert als ein KI-Modell, das&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;das eine erhebliche allgemeine Verwendbarkeit aufweist,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;In den von der EU-Kommission im Juli 2025 veröffentlichten Leitlinien zu GPAI-Modellen werden eine kumulierte Menge der für das Training verwendeten Berechnungen gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; von mehr als 10&amp;lt;sup&amp;gt;23&amp;lt;/sup&amp;gt; und die Fähigkeit, geschriebene oder gesprochene Sprache (aber auch Bilder oder Videos aus Text) zu generieren, als Anhaltspunkte für das Vorliegen eines GPAI-Modells angegeben, es sei denn, das Modell erfüllt die oben angegebenen Kriterien der Allgemeinheit nicht (zB weil es spezifisch nur für die Transkription von Sprache in Text trainiert wurde).&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 13 ff.&amp;lt;/ref&amp;gt; Somit ist davon auszugehen, dass die üblichen [https://de.wikipedia.org/wiki/Large_Language_Model LLM]s, wie die GPT-Serie von OpenAI, die Gemini-Serie von Google oder die Claude-Serie von Anthropic als GPAI-Modelle im Sinne dieser Definition einzustufen sind.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt.&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Abgrenzung der Rollen entlang der Wertschöpfungskette&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&amp;lt;mark&amp;gt;In Bezug auf GPAI-Modelle können folgende Rollen unterschieden werden:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Anbieter (Providers) von GPAI-Modellen:&#039;&#039;&#039; Entwickeln ein GPAI-Modell oder lassen es entwickeln und bringen es ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr oder nehmen es unter ihrem eigenen Namen oder ihrer Handelsmarke in Betrieb, sei es entgeltlich oder unentgeltlich (Art 3 Z 3 AI Act);&amp;lt;ref name=&amp;quot;:3&amp;quot;&amp;gt;Vgl Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 72 ff.&amp;lt;/ref&amp;gt; sie treffen primär die nachfolgend beschriebenen Pflichten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Modifizierer (Downstream Modifiers) von GPAI-Modellen&#039;&#039;&#039;: Fine-tunen/modifizieren&amp;lt;ref&amp;gt;Vgl ErwGr 97 Satz 5.&amp;lt;/ref&amp;gt; bestehende GPAI-Modelle anderer Anbieter; laut der Kommission ist nicht jeder Modifizierer dadurch gleich als Anbieter des modifizierten GPAI-Modells anzusehen, dies jedoch dann, wenn die Modifikation des GPAI-Modells zu einer wesentlichen Änderung der Universalität, der Leistungsfähigkeit oder des systemischen Risikos des GPAI-Modells führt, wobei als Indiz dafür gilt, dass die Anzahl der Berechnungen für die Modifikation ein Drittel jener für das Training des ursprünglichen GPAI-Modells übersteigt.&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 60 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Anbieter (Downstream Providers) von KI-Systemen:&#039;&#039;&#039; Integrieren GPAI-Modelle in KI-Systeme; ein wesentlicher Zweck der Regulierung von GPAI-Modellen ist, dass nachgelagerte Anbieter, ein GPAI-Modell in ihr KI-System integrieren, Informationen über dieses Modell erhalten und darauf basierend ihren eigenen Verpflichtungen (nach den allgemeinen Regeln des AI Act für KI-Systeme) nachkommen zu können.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Betreiber (Deployers):&#039;&#039;&#039; Nutzen ein KI-System im praktischen Einsatz.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme der Hauptgegenstand der Regulierung durch den AI Act sind (risikobasierten Ansatz), unterliegen auf Ebene der Modelle nur GPAI-Modelle einer direkten Regulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese Regulierung unterscheidet zwischen GPAI-Modellen ohne und GPAI-Modellen mit systemischem Risiko. Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act), &lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über &amp;quot;Fähigkeiten mit hohem Wirkungsgrad&amp;quot; verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; FLOPs beträgt. Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act). Oder&lt;br /&gt;
* wenn die Kommission in einer Entscheidung festgestellt hat, dass es über solche Fähigkeiten oder eine solche Wirkung verfügt (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 AI Act):&lt;br /&gt;
&lt;br /&gt;
# eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden&lt;br /&gt;
# Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
# eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
# eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Pflichten 1 und 2 &amp;quot;gelten nicht für Anbieter von KI-Modellen, die im Rahmen einer freien und quelloffenen Lizenz bereitgestellt werden, die den Zugang, die Nutzung, die Änderung und die Verbreitung des Modells ermöglicht und deren Parameter, einschließlich Gewichte, Informationen über die Modellarchitektur und Informationen über die Modellnutzung, öffentlich zugänglich gemacht werden. Diese Ausnahme gilt nicht für KI-Modellen [sic!] mit allgemeinem Verwendungszweck mit systemischen Risiken.&amp;quot; (Art 53 Abs 2 AI Act) In den Leitlinien der Kommission ist die (strenge) Auslegung der einzelnen Kriterien dieser Definition ausführlich dargelegt.&amp;lt;ref name=&amp;quot;:3&amp;quot; /&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 AI Act):&lt;br /&gt;
&lt;br /&gt;
# eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
# mögliche systemische Risiken auf Unionsebene bewerten und mindern&lt;br /&gt;
# einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
# ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung des AI Act beitragen sollen.&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von GPAI-Modellen sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 56 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 10. Juli 2025 wurde der Praxisleitfaden &amp;quot;[https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai General-Purpose AI Code of Practice]&amp;quot; veröffentlicht und von der EU-Kommission und vom KI-Gremium am 1. August 2025 gem Art 56 Abs 6 AI Act als angemessen bewertet.&amp;lt;ref&amp;gt;Europäische Kommission, Erstellung eines allgemeinen KI-Verhaltenskodex, https://digital-strategy.ec.europa.eu/de/policies/ai-code-practice.&amp;lt;/ref&amp;gt; Zu diesem wurde auch eine [https://digital-strategy.ec.europa.eu/de/faqs/questions-and-answers-code-practice-general-purpose-ai FAQ-Seite] veröffentlicht. Auch ein [https://ec.europa.eu/newsroom/dae/redirection/document/118118 Musterdokumentationsformular für Modelle] ist Teil des GPAI Code of Practice. Zusätzlich hat die EU-Kommission am 18. Juli 2025 auch [https://ec.europa.eu/newsroom/dae/redirection/document/118340 Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act] veröffentlicht.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Für Anbieter von GPAI-Modellen, die den GPAI Code of Practice unterzeichnen und diesen einhalten, können dadurch nachweisen, dass sie den AI Act einhalten.&amp;lt;ref&amp;gt;Vgl Art 50 Abs 7 und Art 53 Abs 4 AI Act sowie Europäische Kommission, Der General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/de/policies/contents-code-gpai.&amp;lt;/ref&amp;gt; Damit soll Rechtssicherheit geschaffen werden. Es handelt sich dabei aber um eine freiwillige Maßnahme und es steht Anbietern von GPAI-Modellen somit frei, die entsprechenden Bestimmungen des AI Act auch auf andere Weise umzusetzen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Auf der oben verlinkten Website des GPAI Code of Practice ist angegeben, welche Anbieter von GPAI-Modellen diesen unterzeichnet haben. Darunter finden sich die meisten Anbieter der gängigen LLMs, wie Anthropic, Google, OpenAI und Mistral AI.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der AILD und PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Stand November 2025 wurde in Österreich noch keine Behörde als zuständige Marktüberwachungsbehörde eingerichtet oder benannt. Bereits mit 2. November 2024 sind jedoch einige Behörden und öffentliche Stellen im Grundrechtsbereich gemäß Art 77 Abs 2 mit Aufsichts- und Durchsetzungsbefugnissen für Grundrechte insb im Zusammenhang mit Hochrisiko-KI ausgestattet worden, darunter die Volksanwaltschaft, die Datenschutzbehörde, die Arbeiterkammer, die Gleichbehandlungskommission, die Behindertenanwaltschaft, die KommAustria uvm.&amp;lt;ref&amp;gt;Mehr dazu unter: https://www.digitalaustria.gv.at/themen/kuenstliche-intelligenz/behoerden-art77-ai-act.html.&amp;lt;/ref&amp;gt; Dabei treffen auch die (künftig) zuständige Marktüberwachungsbehörde umfassende Kooperationspflichten, wie etwa die Meldung schwerwiegender Grundrechtsvorfälle in diesem Kontext an die genannten Einrichtungen (vgl Art 73 Abs 7 und Art 79 Abs 2 AI Act).&amp;lt;ref&amp;gt;Vgl &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 103, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Dazu hat die Kommission entsprechende Leitlinien zu veröffentlichen, die sich gerade in Ausarbeitung befinden.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung im Einzelfall betroffen sind,&lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (&amp;lt;mark&amp;gt;Recht auf Erläuterung der Entscheidungsfindung im Einzelfall gemäß Art 86 Abs 1 AI Act oder auch gemeinhin als &#039;&#039;&#039;&amp;quot;Recht auf Erklärung&amp;quot;&#039;&#039;&#039; bezeichnet&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157; &#039;&#039;Poindl/Müller,&#039;&#039; Das Recht auf Erklärung im AI Act. Betroffenenrecht mit Potenzial oder Papiertiger?, VbR 2025, 40. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei ist es unerheblich, ob das KI-System die Entscheidung gänzlich autonom getroffen hat oder unterstützend beteiligt war, es darf lediglich keine untergeordnete Rolle im Entscheidungsprozess gespielt haben.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Steht das Recht auf Erklärung zu, hat die betroffene Person einerseits das Recht, eine Erklärung über die Rolle des KI-Systems im Entscheidungsprozess zu verlangen, worunter einerseits Informationen über die zentralen Aufgaben des Systems im Entscheidungsprozess fallen (zB Zielgruppenselektion, Datenanalyse, Vorgabe der Entscheidung usw.) und andererseits auch der Grad dessen Beteiligung (gering, mittel, hoch), was umgekehrt auch den Grad menschlicher Beteiligung an der Entscheidungsfindung erfordert. Weiters sind die wichtigsten Elemente der Entscheidung zu beauskunften, beispielsweise Eingabedaten, wesentliche Entscheidungsgründe, kontrafaktische Erklärungen (inwiefern hätten andere Parameter zu einer anderen Entscheidungen geführt), die Auswirkungen der Entscheidung, die Gewichtung der einzelnen Kriterien und die Verarbeitungslogik (Informationen über die grobe Funktionsweise des KI-Systems, keine komplette Offenlegung des algorithmischen Codes). Weiters muss die Erklärung präzise, korrekt, verständlich, nicht zu technisch (keine komplexen mathematischen Formeln), aber dennoch vollständig sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letzter Referenzpunkt ist stets, ob die betroffene Person auf Basis der erlangten Informationen weitere Rechte geltend machen kann, da das Recht auf Erklärung auch oft als &amp;quot;Türöffner&amp;quot; für die Geltendmachung weiterer Rechte dient (so wird bspw eine Klage wegen Diskriminierung in einem Entscheidungsprozess erst erhoben werden können, wenn die betroffene Person genügend Informationen hat, um die Diskriminierung darzulegen, bspw die Gewichtung von bestimmten persönlichen Merkmalen, die ausschlaggebend für die Entscheidung war).&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Es handelt sich somit um ein nachgelagertes bzw &#039;&#039;ex post&#039;&#039; Recht, das nicht nur globale, abstrakte Systemerklärungen erfordert, sondern auch lokale, einzelfallbezogene Auskünfte umfasst, damit die betroffene Person die Informationen wirksam nutzbar machen kann .&amp;lt;/mark&amp;gt; Das Recht auf Erklärung steht Betroffenen gegenüber Betreibern und nicht gegenüber Anbietern zu, wobei letztere wiederum Betreibern entsprechende Betriebsanleitungen bereitzustellen haben (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung gilt nicht, sofern Ausnahmen nach Unionsrecht oder nationalem Recht bestehen (Art 86 Abs 2). Zu denken wäre hier etwa an Beschränkungen der Informationspflicht aufgrund geschützter Betriebs- oder Geschäftsgeheimnisse, wobei diese nicht zu einer pauschalen Auskunftsverweigerung führen dürfen.&amp;lt;/mark&amp;gt; Art 86 Abs 1 gilt überdies nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung Subsidiarität] ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung ist immer dann relevant, wenn Unternehmen, Behörden etc. KI in Entscheidungsfindungsprozessen einsetzen, die Auswirkungen auf bestimmte Personen(-gruppen) haben. Zu denken ist etwa an KI-basierte Entscheidungen über die Vergabe von Krediten, über die Berücksichtigung einer Bewerbung, über die Höhe einer Versicherungsprämie oder personalisierte Werbeschaltungen auf Basis von Emotionserkennung.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zum Umgang mit dem Recht auf Erklärung in der Praxis hat das &#039;&#039;Research Institute&#039;&#039; im Auftrag des Bundesministeriums für Arbeit, Soziales, Gesundheit, Pflege und Konsumentenschutz Leitlinien entwickelt:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:f1685e43-21b8-48f3-9fe5-2c61898960ae/Final_Aufkl%C3%A4rung%204.0_Unternehmensleitfaden_April2025.pdf Leitfaden für Unternehmen] im Umgang mit Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:40ba630c-39af-4b8d-8768-a69192427b09/Final_Aufkl%C3%A4rung%204.0_Konsumentinnenleitfaden_April2025.pdf Leitfaden für Konsument:innen und ihre Interessenvertretungen] zur Durchsetzung ihrer Rechte&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf Theoretischer Grundlagenbericht] zur wissenschaftlichen Fundierung der ausgesprochenen Empfehlungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Europäische Komitee für Normung (CEN) und das Europäische Komitee für elektrotechnische Normung (cenelec) wurden mittels Durchführungsbeschluss aufgefordert, bis zum 30. April 2025 bestimmte angeführte Normen auzuarbeiten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/growth/tools-databases/enorm/mandate/593_en&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Der ursprüngliche Zeitplan konnte nicht eingehalten werden und es erfolgte eine neuerliche Fristverlängerung mittels eines neuerlichen Durchführungsrechtsaktes.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl Commisson Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation as regards high-risk AI-systems in support of Regulation (EU) 2024/1689 of the European Parliament and of the Council and repealing Implementing Decision C(2023)3215 &amp;lt;nowiki&amp;gt;https://ec.europa.eu/transparency/documents-register/detail?ref=C(2025)3871&amp;amp;lang=en&amp;lt;/nowiki&amp;gt;&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Seit November 2025 liegt der erste Entwurf einer harmonisierten Norm zum Qualitätsmanagement &amp;quot;EprEN 18286, Artificial intelligence – Quality management system for EU AI Act regulatory purposes nach Art 17 AI Act zur öffentlichen Kommentierung vor.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://adamleonsmith.substack.com/p/pren-18286&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Konsultation zu diesem Normentwurf läuft bis zum 22. Jänner 2026. In den kommenden Monaten sollen weitere Normentwürfe folgen – unter anderem zu Risikomanagement, Cybersicherheit, Vertrauenswürdigkeit und Konformitätsbewertung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zudem verabschiedenen CEN/cenelec im Oktober 2025 ein Maßnahmenpaket, um die Fertigstellung wichtiger Normen, die im Rahmen von CEN-CLC/JTC 21 „Künstliche Intelligenz” entwickelt wurden, sowie der im Rahmen des Normungsantrags M/593 (und seiner Änderung M/613) geforderten Ergebnisse zu beschleunigen. Diese Maßnahmen betreffen eine Reihe von Arbeitspunkten, die die technische Grundlage für die künftigen europäischen Normen zur Unterstützung des KI-Gesetzes bilden. Die Vorstände kamen überein, im Falle einer positiven Abstimmung über die Anfrage die direkte Veröffentlichung der Entwürfe ohne separate formelle Abstimmung zuzulassen und CEN-CLC/JTC 21 zu beauftragen, eine kleine Redaktionsgruppe aus bereits aktiven Experten einzurichten, um sechs der am stärksten verzögerten Entwürfe fertigzustellen, bevor sie den jeweiligen Arbeitsgruppen zur Information und für abschließende Kommentare vorgelegt werden.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://www.cencenelec.eu/news-events/news/2025/brief-news/2025-10-23-ai-standardization/&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf die verzögerten Standards im Entwurf Digital Omnibus on AI Regulation Proposal&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;bestimmte Maßnahmen vorgeschlagen, um eine zeitnahe, reibungslose und verhältnismäßige Umsetzung bestimmter Bestimmungen des AI-Acts sicherzustellen. Als eine Maßnahme wurde dabei die Kopplung des Zeitplans für die Umsetzung der Vorschriften für hohe Risiken an die Verfügbarkeit von Normen vorgeschlagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Grundlegende Überschneidungen zwischen dem AI Act und der Datenschutz-Grundverordnung (DSGVO)&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Da KI-Systeme bzw -Modelle häufig personenbezogene Daten verarbeiten - bspw im Rahmen des Trainings eines KI-Modells oder zur Entscheidungsunterstützung in Bezug auf konkrete Personen -, stellt sich unweigerlich die Frage nach dem Zusammenwirken des AI Act mit der DSGVO.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Der Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA) des LfDI Baden-Württemberg enthält eine Auswahl von Orientierungshilfen verschiedener Aufsichtsbehörden und Gremien zu den Schnittstellen von DSGVO und KI: https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0. MwN &#039;&#039;Holtz/Ledendal,&#039;&#039; AI Data Governance - Overlaps Between the AI Act and the GDPR (iE, 2026): https://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1996843&amp;amp;dswid=-4177 sowie der [https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/DE-Bridge-Blueprint-v.0.9.pdf &amp;quot;Bridge Blueprint&amp;quot;-Entwurf] zur einheitlichen Anwendung von Datenschutz- und KI-Regulierung des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI).&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letztere knüpft ihren Anwendungsbereich nämlich an die Verarbeitung personenbezogener Daten iSd Art 4 Abs 1 DSGVO, worunter alle Informationen zu verstehen sind, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Die DSGVO ist seit 2018 in Anwendung und verfolgt den Grundsatz, dass jegliche Verarbeitung personenbezogener Daten verboten ist, es sei denn, es liegt ein Erlaubnistatbestand nach Art 6 Abs 1 DSGVO vor. Für die Verarbeitung sog &amp;quot;sensibler Daten&amp;quot; nach Art 9 DSGVO (zB Gesundheitsdaten, die ethnische Herkunft, die religiöse Weltanschauung etc.) legt sie noch strengere Maßstäbe an. Damit verfolgt die DSGVO einen horizontalen sowie prinzipienbasierten Ansatz, wonach bei der Verarbeitung personenbezogener Daten bestimmte Anforderungen und Grundsätze einzuhalten sind, ungeachtet der verwendeten Technologie, des Sektors oder des Einsatzgebiets.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 32, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus orientiert sich die Verordnung daran, inwieweit eine bestimmte Datenverarbeitung ein Risiko für die Rechte und Freiheiten natürlicher Personen darstellt (&amp;quot;risikobasierter Ansatz&amp;quot;), wonach sich letztendlich die Strenge der von ihr vorgeschriebenen Verpflichtungen bemisst.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Der AI Act erkennt das Primat der DSGVO in Art 2 Abs 7 an und statuiert, dass er deren Anwendungsbereich unberührt lässt. Somit gehen im Falle der Verarbeitung personenbezogener Daten durch eine KI-Anwendung die Regelungen der DSGVO grundsätzlich vor, während der AI Act dem ergänzend eine produktsicherheitsrechtliche Komponente beifügt, die während der Entwicklung und des Einsatzes von KI zu beachten ist.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 33, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Überschneidungen beider Rechtsakte ergeben sich bspw, sobald ein KI-Modell mit personenbezogenen Daten &#039;&#039;&#039;trainiert&#039;&#039;&#039; werden soll. In diesem Fall braucht es eine Rechtsgrundlage nach Art 6 Abs 1 DSGVO (und ggf Art 9 DSGVO), wobei hier am ehesten die berechtigten Interessen des Verantwortlichen nach lit f leg cit infrage kommen. So hat sich bspw der Facebook-Mutterkonzern Meta auf berechtigte Interessen berufen, um sein Sprachmodell &amp;quot;LLaMA&amp;quot; hinter seiner &amp;quot;Meta AI&amp;quot; mit Nutzerdaten zu trainieren. Dagegen erhob die Verbraucherschutzzentrale NRW Antrag auf Erlass einer einstweiligen Verfügung, letztendlich entschied jedoch das OLG Köln in seinem Beschluss vom 23.05.2025 (15 UKl 2/25), dass sich Meta für das KI-Training mit Nutzerdaten auf berechtigte Interessen stützen könne.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://www.verbraucherzentrale.nrw/urteilsdatenbank/digitale-welt/olg-koeln-weist-eilantrag-der-verbraucherzentrale-nrw-gegen-meta-wegen-kitraining-zurueck-108065.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Umgekehrt ist laut Art 35 DSGVO immer dann eine Datenschutz-Folgenabschätzung durchzuführen, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat, insbesondere bei Verwendung neuer Technologien. Darunter fallen gemäß §2 Abs 2 Z 4 DSFA-V&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Verordnung der Datenschutzbehörde über Verarbeitungsvorgänge, für die eine Datenschutz-Folgenabschätzung durchzuführen ist (DSFA-V), BGBl. II Nr. 278/2018.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;insbesondere Datenverarbeitung unter Einsatz von künstlicher Intelligenz, welcher jedenfalls die Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung nach sich zieht. Somit löst auch der Einsatz von KI unter gewissen Voraussetzungen datenschutzrechtliche Pflichten aus.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: Digital Services Act (DSA) vs AI Act ===&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der DSA legt einheitliche Regeln für Vermittlungsdienste mit dem Ziel fest, ein vertrauenswürdiges, (rechts-)sicheres und vorhersehbares Online-Umfeld für Verbraucher und Unternehmen durch eine harmonisierte Plattformregulierung zu gewährleisten. Ebenso zielt das Regelwerk auf den Schutz sowie die Gewährleistung einer effektiven Grundrechtsausübung und normiert umfassende Verpflichtungen für Anbieter von Online-Diensten in Form eines abgestuften Regelungsansatzes, der die unterschiedlichen Compliance-Pflichten an die Art und Größe der jeweiligen Online-Dienste knüpft. Dabei kennt der DSA folgende Anbieterkategorien: Anbieter von allgemeinen Vermittlungsdiensten, Hostingdiensten, Online- sowie Transaktionsplattformen und sehr großen Online-Plattformen (VLOPs) und -Suchmaschinen (VLOSEs). Überschneidungen mit dem AI Act können sich auf zweierlei Weise ergeben: Einerseits können KI-Anwendungen zur Generierung oder Manipulation von Inhalten verwendet werden, die dann über Vermittlungsdienste geteilt werden. Andererseits können KI-Systeme das Kernangebot des Diensteanbieters ausmachen, in der Inhaltsmoderation eingesetzt werden oder Produkt- bzw Service-Empfehlungen auf Basis von Nutzerverhalten (&amp;quot;Empfehlungsalgorithmen&amp;quot;) schalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 48, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Allgemeine Synergien sind dem [[Digital Services Act (DSA)|Eintrag über den DSA]] zu entnehmen.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
* Weiters kann es bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act in Bezug auf die notwendige Risikoanalyse kommen. &amp;lt;mark&amp;gt;So fordern die Artikel 34 und 35 DSA die Analyse jener potenzieller systemischer Risiken, die sich durch das Design, die Funktion oder die Nutzung ihrer Services ergeben, insbesondere im Zusammenhang mit algorithmischen Systemen oder Systemen zur Inhaltsmoderation. Demgegenüber legt der AI Act in Art 17 die Verpflichtung für Anbieter von Hochrisiko-KI-Systemen zur Etablierung eines Risikomanagementsystems gemäß Art 9 AI Act fest und sieht spezielle Anforderungen für Anbieter von GPAI-Modellen mit systemischem Risiko vor (Art 55 Abs 1 lit b AI Act).&amp;lt;/mark&amp;gt; Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Im Fall von Anbietern von Hochrisiko-KI-Systemen sieht der AI Act sogar explizit die Möglichkeit vor, Risikomanagementprozesse nach anderen unionsrechtlichen Bestimmungen mit jenen nach dem AI Act zu kombinieren (vgl Art 9 Abs 10 AI Act).&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 49, &amp;lt;nowiki&amp;gt;https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Art 86 AI Act normierte Recht auf Erläuterung] besteht potentiell eine Subsidiarität gegenüber anderen Auskunftsansprüchen, insb der Auskunftspflicht nach Art 15 Abs 1 lit h DSGVO iVm Art 22 DSGVO. &amp;lt;mark&amp;gt;Demnach steht Personen, die von einer automatisierten Entscheidungsfindung im Einzelfall einschließlich Profiling betroffen sind, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie ähnlich erheblich beeinträchtigt, das Recht zu, neben allgemeinen Informationen über die Verarbeitung ihrer personenbezogenen Daten aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und Auswirkungen einer derartigen Verarbeitung zu verlangen. Inhaltlich&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;richtet sich der Auskunftsanspruch nach Art 15 Abs 1 lit h DSGVO gemäß rezenter EuGH-Judikatur insb auf die Erläuterung des Verfahrens und der Grundsätze, die bei der automatisierten Verarbeitung der personenbezogenen Daten der betroffenen Person zur Anwendung kamen und zu dem bestimmten Ergebnis geführt haben.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117, Rz 58. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Frage nach einer potenziellen Subsidiarität von Art 86 AI Act gegenüber den entsprechenden datenschutzrechtlichen Vorschriften hängt von unterschiedlichen Fallszenarien ab, in denen die jeweils verwendeten Technologien und verarbeiteten Datenkategorien zu unterschiedlichen Ergebnissen führen können:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 15 Abs 1 lit h iVm Art 22 DSGVO&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsfolge&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Hochrisiko-KI-Einsatz in Entscheidungsfindungsprozessen, in denen entweder keine personenbezogenen Daten gemäß Art 4 Z 1 DSGVO verarbeitet werden (zB Verarbeitung lediglich aggregierter Daten) oder keine vollautomatisierte Entscheidung iSd Art 22 DSGVO getroffen wird (etwa weil ein Mensch maßgeblich an der Entscheidungsfindung beteiligt ist)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Das Recht auf Erklärung steht vollumfänglich wie in Art 86 Abs 1 dargelegt zu (bei Vorliegen der übrigen Voraussetzungen). Der betroffenen Person sind somit klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess und zu den wichtigsten Elementen der getroffenen Entscheidung zu übermitteln, wobei die Erklärung einzelfallbezogen und auf das konkrete Ergebnis gerichtet sein muss. Der Anwendungsbereich von Art 15 (Abs 1 lit h iVm Art 22) DSGVO ist hingegen nicht eröffnet. Das Recht, die Entscheidung anzufechten, steht - zumindest gemäß AI Act - nicht zu.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Es findet eine vollautomatisierte Entscheidungsfindung auf Basis der Verarbeitung personenbezogener Daten statt, allerdings ohne Beteiligung eines Hochrisiko-KI-Systems iSd Art 6 Abs 2 iVm Anhang III AI Act (bspw wird die Entscheidung durch einen herkömmlichen Algorithmus getroffen, der Anforderungen an ein KI-System nach Art 3 Z 1 AI Act nicht erfüllt oder das KI-System fällt nicht in den Hochrisiko-KI-Bereich)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Auskunftsanspruch gemäß Art 15 (Abs 1 lit h iVm Art 22) DSGVO steht bei Vorliegen der übrigen Voraussetzungen zu, während das Recht auf Erklärung nach Art 86 AI Act keine Anwendung findet. Es sind der betroffenen Person somit Informationen über die involvierte Logik, Tragweite und Auswirkungen der Entscheidung zu übermitteln, wobei Informationen über die Rolle des eingesetzten Systems nicht darunter fallen. Im Unterschied zu Art 86 AI Act ist in Bezug auf Art 15 Abs 1 lit h DSGVO jedoch noch unklar, ob auch eine Verpflichtung zu einer einzelfallbezogenen Begründung der konkret erzielten Ergebnisse besteht, die über eine abstrakte/allgemeine Erklärung hinausgeht.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl etwa das EuGH-Urteil in der RS Dun &amp;amp; Bradstreet, welches stärker auf das lokale Element, dh die Einzelentscheidung, abzustellen scheint (EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117). MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 71, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Art 22 Abs 3 DSGVO enthält jedoch im Gegensatz zum AI Act das Recht, die Entscheidung anzufechten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Verarbeitung personenbezogener Daten im Rahmen der Entscheidungsfindung, Einsatz eines Hochrisiko-KI-Systems, vollautomatisierte Entscheidungsfindung&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Anspruch nach Art 86 AI Act tritt ergänzend zu jenem nach der DSGVO hinzu und richtet sich auf jene Informationen, die nach Art 15 DSGVO nicht zu beauskunften sind (bspw die Rolle des KI-Systems im Entscheidungsprozess sowie jedenfalls einzelfallbezogene, lokale Erklärungen). Es handelt sich somit um eine sog &amp;quot;Lückenfüller-Position&amp;quot; von Art 86 AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Ansicht folgend und mwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 96 ff, &amp;lt;nowiki&amp;gt;https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;mark&amp;gt;In der Regel werden Betroffene in der Praxis wohl beide Ansprüche gleichzeitig geltend machen. Dies ist allerdings nur möglich, sofern beide Ansprüche auch gegenüber der selben Person bzw Einrichtung geltend zu machen sind. Denn während das Recht auf Erklärung nach Art 86 AI Act gegen den Betreiber des KI-Systems zusteht, ist der Auskunftsanspruch gemäß Art 15 Abs 1 lit h DSGVO gegen jene Person oder Stelle zu richten, welche die Entscheidung getroffen hat (welche zwar meist aber nicht zwangsläufig mit der Person des datenschutzrechtlich Verantwortlichen iSd Art 4 Z 7 DSGVO ident sein wird&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Argumentation folgend: &#039;&#039;Ziegenhorn,&#039;&#039; Wer ist Adressat des Art. 22 DSGVO? Zur Abgrenzung des Entscheiders vom Verantwortlichen, CR 2024, 586.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;). Die unterschiedlichen Rollen nach AI Act und DSGVO können somit zusammenfallen, müssen dies allerdings nicht, wodurch sich unterschiedliche Verpflichtungen für die beteiligten Akteure ergeben können.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== Produkthaftungsrichtlinie neu und Vorschlag für eine AI Liability Directive [zurückgezogen] ===&lt;br /&gt;
&lt;br /&gt;
* Die Produkthaftungsrichtlinie neu (PHRL neu) und insbesondere &amp;lt;mark&amp;gt;der (zurückgezogene)&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Commission work programme 2025, (11.2.2025) COM(2025) 45 final, 26.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Vorschlag für eine&amp;lt;/mark&amp;gt; AI Liability Directive (AILD) nehmen direkt auf den AI Act Bezug und verweisen bei der Begriffsverwendung häufig auf diesen. Die AILD kann somit nicht ohne den Kontext des AI Act verstanden werden. So sollten die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD bilden ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]). &lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act überträgt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Begleit- bzw Durchführungsgesetz, das die Sanktionen konkretisiert.  &amp;lt;mark&amp;gt;Auch die notifizierende(n) Behörde(n) und die Marktüberwachungsbehörde(n) (Art 70 AI Act) wurden in Österreich noch nicht benannt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 5: Transkriptionstool im Rahmen der Rechtspflege&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|&amp;lt;mark&amp;gt;Im Rahmen des Verfassens von Urteilen oder Protokollen wird das gesprochene Wort (Diktat des Entscheidungsorgans) digital aufgezeichnet und anschließend transkribiert. Das System ist in der Lage, mithilfe KI-gestützter Spracherkennung die jeweils Sprechenden (Speaker Diarisation) sowie juristische Begriffe und Redewendungen zu erkennen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Transkriptionssoftware liegt ein Sprachmodell (LLM) zugrunde, das auf maschinellem Lernen basiert. Dieses wird durch ein User-Interface praktisch nutzbar gemacht und stellt somit ein KI-System iSd AI Act dar.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&amp;lt;mark&amp;gt;Der Einsatz von KI in der Rechtspflege zu gewissen Zwecken kann in den Hochrisiko-KI-Bereich gemäß Art 6 Abs 2 iVm Anhang III Nr 8 lit a AI Act fallen. Solche Systeme sind jedoch nicht als hochriskant einzustufen, sofern sie für rein begleitende administrative Tätigkeiten bestimmt sind, worunter jedenfalls Spracherkennungsprogramme für das Diktieren von Entscheidungen fallen können (ErwGr 61). In einem nächsten Schritt ist die Ausnahmeregelung des Art 6 Abs 3 AI Act zu prüfen, wonach das System höchstwahrscheinlich gemäß lit a leg cit aus dem Hochrisiko-KI-Bereich ausgenommen ist, da es rein für Protokollierungszwecke eingesetzt wird und damit nur eine eng gefasste Verfahrensaufgabe übernimmt. Ebenso ist denkbar, gemäß lit d leg cit aus dem Hochrisiko-KI-Bereich ausgenommen zu sein, sofern das System lediglich eine vorbereitende Aufgabe für die Urteilserstellung übernimmt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Bejaht man hingegen das Vorliegen von Hochrisiko-KI, so treffen deren Anbieter die Pflichten der Art 8 ff AI Act und den Betreiber insbesondere die Pflichten nach Art 26 und 27 AI Act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Sofern es sich um ein KI-Modell mit allgemeinem Verwendungszweck (mit systemischem Risiko) handelt, treffen den Anbieter diesbezüglich Verpflichtungen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Unabhängig von der Risikoeinstufung des Modells bzw Systems sind darüber hinaus die Transparenzpflichten nach Art 50 AI Act zu beachten sowie ein ausreichendes Maß an KI-Kompetenz unter den Beschäftigten, die mit dem Transkriptionstool arbeiten, herzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 6: KI-System zur Filterung und Priorisierung von Bewerbungen&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Sachverhalt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen möchte eine neue Stelle besetzen und erhält unzählige Bewerbungen. Daher entschließt es sich, ein KI-basiertes System einzusetzen, das Bewerbungen filtert und mit einem Einstufungswert versieht, wodurch die Bewerbungen priorisiert werden. Die zuständigen HR-Mitarbeiter*innen weichen nicht mehr von dem Wert ab und vergeben die Stelle schließlich an jene Person, die den höchsten Einstufungswert erhalten hat.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!&amp;lt;mark&amp;gt;Einordnung AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Sofern es sich bei der Anwendung um ein KI-System nach Art 3 Z 1 AI Act handelt, ist der Anwendungsbereich des AI Act grundsätzlich eröffnet. Das Unternehmen ist jedenfalls als dessen Betreiber zu qualifizieren, da es das System in eigener Verantwortung zu beruflichen Zwecken einsetzt. Sofern es das KI-System auch selbst entwickelt / entwickeln lässt und es unter eigener Marke bzw eigenem Namen in Betrieb nimmt, ist es sogar Anbieter.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]].&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Darüber hinaus stellt das System ein &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System nach Art 6 Abs 2 iVm Anhang III Punkt 4a AI Act dar, da es bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet wird, um Bewerbungen zu filtern und Bewerber zu bewerten. Eine Ausnahme nach Art 6 Abs 3 AI Act vom Hochrisiko-KI-Bereich liegt nicht vor, da das KI-System das Ergebnis der Entscheidungsfindung wesentlich beeinflusst (von dem KI-generierten Eignungswert wird nicht mehr abgewichen). Je nach Rolle treffen das Unternehmen nun weitereichende Verpflichtungen. In den meisten Fällen wird das Unternehmen wohl als Betreiber zu klassifizieren sein, weshalb es unter anderem die Betreiberpflichten nach Art 26 AI Act zu erfüllen und unter gewissen Voraussetzungen eine Grundrechte-Folgenabschätzung nach Art 27 AI Act durchzuführen hat. Art 26 Abs 7 sieht grundsätzlich auch die spezielle Betreiberpflicht vor, vor Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz die Arbeitnehmervertreter und betroffenen Arbeitnehmer über den KI-Einsatz zu informieren. Inwieweit diese Verpflichtung auch gegenüber Bewerbern gilt, die streng genommen (noch) keine Arbeitnehmer sind, ist fraglich und wird wohl zu verneinen sind. Diese vermeintliche Rechtsschutzlücke wird jedoch ohnehin wieder durch die Verpflichtung gemäß Art 26 Abs 11 AI Act ausgeglichen, von Hochrisiko-KI-Entscheidungen betroffene Personen über diesen KI-Einsatz zu informieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= &amp;lt;mark&amp;gt;Digitaler Omnibus&amp;lt;/mark&amp;gt; =&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 19. November 2025 stellte die Europäische Kommission das sogenannte &#039;&#039;&#039;„Digital Omnibus Package“&#039;&#039;&#039; vor, ein Legislativpaket mit dem Ziel, den digitalen Rechtsrahmen der EU zu vereinfachen.&amp;lt;ref name=&amp;quot;:2&amp;quot;&amp;gt;Vgl https://ec.europa.eu/commission/presscorner/detail/de/ip_25_2718. &amp;lt;/ref&amp;gt; Ziel der Maßnahme ist, Verwaltungs- und Umsetzungskosten zu senken, Rechtsklarheit zu erhöhen und insbesondere kleine und mittlere Unternehmen (KMU) zu entlasten, da Unternehmen zunehmend Schwierigkeiten bei der Umsetzung und Koordination von Vorgaben wie etwa dem AI Act sehen. Das Paket umfasst Änderungen und Anpassungen unterschiedlicher Rechtsrahmen, so auch einige Bestimmungen des AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Inhaltliche Änderungen betreffen einerseits die Verpflichtung zur Sicherstellung von KI-Kompetenz (Art 4), welche nunmehr nicht Unternehmen bzw. Einrichtungen selbst treffen soll, sondern die Kommission und die Mitgliedstaaten sind dazu angehalten, Anbieter und Betreiber zur Sicherstellung eines angemessenen Maßes an KI-Kompetenz zu unterstützen. Ebenso stellt die Kommission eine Verzögerung der Anwendbarkeit der Hochrisiko-KI-Bestimmungen in Aussicht, welche mit 2. August 2026 bzw 2. August 2027 Anwendung erlangen sollten. Grund ist das Fehlen von entsprechenden Standards, die eigentlich bis August 2025 zu setzen waren und ohne die laut Kommission die Einhaltung der entsprechenden AI Act-Bestimmungen nicht möglich sei. Die Anwendbarkeit der Hochrisiko-KI-Bestimmungen soll sich um bis zu maximal 16 Monate verzögern, wobei die Vorschriften Geltung erlangen, sobald die Kommission die Verfügbarkeit der erforderlichen Standards und Unterstützungsinstrumente bestätigt.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:2&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus enthält der Vorschlag einen neuen Art 4a, der die Verarbeitung sensibler personenbezogener Daten zur Erkennung und Minderung von Bias unter gewissen Voraussetzungen ermöglicht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Kommissionsleitlinien und sonstige Materialen/Verhaltenskodizes&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zur Definition eines Systems der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 6. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118628&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 4. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118661&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Living Repository zur Förderung des Lernens und des Austausches über KI-Kompetenz vom 04. Februar 2025 (mit Update von April 2025): https://ec.europa.eu/newsroom/dae/redirection/document/112203&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Praxisleitfaden für KI-Modelle mit allgemeinem Verwendungszweck (General-Purpose AI Code of Practice) vom 10. Juli 2025: https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Transparenz: https://ec.europa.eu/newsroom/dae/redirection/document/118120&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Urheberrecht: https://ec.europa.eu/newsroom/dae/redirection/document/118115&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Sicherheit: https://ec.europa.eu/newsroom/dae/redirection/document/118119&amp;lt;/mark&amp;gt;  &lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act vom 18. Juli 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118340&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien und Meldevorlagen zur Meldung schwerwiegender KI-Vorfälle gemäß Art 73 AI Act (&#039;&#039;Entwurf, noch in Ausarbeitung&#039;&#039;): https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; AI Act Service Desk. Frequently Asked Questions (FAQs): https://ai-act-service-desk.ec.europa.eu/en/faq.&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Whistleblower Tool for AI Act, https://digital-strategy.ec.europa.eu/en/news/commission-launches-whistleblower-tool-ai-act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act)&amp;lt;mark&amp;gt;&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024) &amp;lt;mark&amp;gt;(2. Auflage 2026, iE)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schefzig/Kilian,&#039;&#039; BeckOK KI-Recht&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Hochrangige Expertengruppe für Künstliche Intelligenz,&#039;&#039; Ethik-Leitlinien für eine vertrauenswürdige KI (2019), https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425&amp;lt;/mark&amp;gt;&lt;br /&gt;
* [https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0 Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA)]&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4316</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4316"/>
		<updated>2025-11-27T10:16:18Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Abgrenzung der Rollen entlang der Wertschöpfungskette */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. Februar 2025 (schrittweise)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen von KI-Systemen &lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD, &amp;lt;mark&amp;gt;von der Kommission zurückgezogen&amp;lt;/mark&amp;gt;)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modelle (general purpose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB Verarbeitung zur Vermeidung von Verzerrungen, Art 10), regulatory sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (zB Anbieter- und Betreiberpflichten, Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz (eingeschränkt); reine Forschungszwecke &lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) gelten seit 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (zB Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|Gewährleistung von Transparenz und Verantwortlichkeit&lt;br /&gt;
|Pflichten für Betreiber (professionelle Nutzer*innen) und Anbieter&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (zB Chatbots, Deepfakes)&lt;br /&gt;
|Informationspflichten nach der DSGVO&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
&amp;lt;mark&amp;gt;Der AI Act ist die erste EU-weite, sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) und&amp;lt;/mark&amp;gt; folgt dabei primär einem produktsicherheitsrechtlichem Ansatz, dessen vorrangiges Regulierungsziel die Sicherheit von KI-Systemen und Modellen ist. &amp;lt;mark&amp;gt;Damit ist er Teil des sog [https://single-market-economy.ec.europa.eu/single-market/goods/new-legislative-framework_en?prefLang=de &amp;quot;New Legislative Framework&amp;quot;] (NLF), einem unionsrechtlichen Maßnahmenpaket zur Produktregulierung, das auf die Verbesserung der Marktüberwachung abzielt und sich durch einheitliche Kernelemente auszeichnet (zB Konformitätsbewertungsverfahren, Selbstregulierung, Standards und einheitliche Anforderungen). Im Rahmen des Gesetzgebungsprozesses wurde der Rechtsakt - insbesondere auf Bestreben des Europäischen Parlaments - um menschenrechtliche Aspekte und Betroffenenrechte erweitert, weshalb der AI Act mittlerweile deutlich über reines Produktsicherheitsrecht hinausgeht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modelle&#039;&#039;&#039; bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot;.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei handelt es sich um &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;ableitet&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot;&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe Art 3 Z 1 AI Act. Hervorhebungen nicht im Original. &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;abzuleiten&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Hingegen soll sich nach ErwGr 12 der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen [...]&amp;quot;, womit auf eine Abgrenzung von KI von herkömmlichen Softwarelösungen und Programmierungsansätzen abgezielt wird.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zusammenfassend möchte der EU-Gesetzgeber mit dieser Definition einerseits Rechtssicherheit schaffen, allerdings immer noch Raum für technologischen Fortschritt lassen, um den Anwendungsbereich des AI Act nicht von Vornherein vor potenziellen künftigen technologischen Entwicklungen zu verschließen.&amp;lt;/mark&amp;gt; Dennoch wurde die Definition als zu vage und unbestimmt empfunden. So wurden diverse Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Um den Begriff des KI-Systems also zu konkretisieren und Unsicherheiten zu beseitigen, sollte die Kommission gemäß Art 96 Abs 1 lit f AI Act Leitlinien vorlegen, und damit eine einheitliche Anwendung des Regelwerks fördern sowie Rechtsicherheit gewährleisten&amp;lt;/mark&amp;gt;.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle, &amp;lt;mark&amp;gt;einfache Datenverarbeitungssysteme, auf klassische Heuristik gestützte Systeme, einfache Vorhersagesysteme etc.&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Eine Positiv-Liste, welche Systeme jedenfalls unter den KI-Begriff fallen, enthalten die Leitlinien allerdings nicht. Sie orientieren sich vielmehr an den 7 Kernelementen der KI-Definition gemäß Art 3 Z 1 AI Act. Es wird überdies betont, dass nicht alle Elemente kontinuierlich in den beiden Hauptphasen des Lebenszyklus von KI (&amp;quot;building phase&amp;quot; / &amp;quot;pre-deployment&amp;quot; oder &amp;quot;use phase&amp;quot; / &amp;quot;post-deployment&amp;quot;) vorhanden sein müssen und, dass sich die Leitlinien kontinuierlich weiterentwickeln sollen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Folgende Konkretisierungen der KI-Definition und Beispiele sind den Leitlinien zu entnehmen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Elemente der KI-Definition&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Erläuterungen in den Leitlinien der EU-Kommission&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Maschinengestütztes System&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;KI benötigt Hardware- und Softwarekomponenten&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB eine Hardwareinfrastruktur wie processing units, Speicher, Input/Output-Schnittstellen und Software (Code, Programme etc.)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;autonomer Betrieb (in unterschiedlichem Grade)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erfordert einen gewissen Grad an Unabhängigkeit von menschlichem Eingreifen, wobei Systeme, die vollständig manuelle menschliche Interaktion erfordern, nicht darunter fallen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Umfasst sind Systeme, die zwar einen manuellen Input erfordern, aber von selbst einen Output generieren (zB Chatbots)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anpassungsfähigkeit nach Betriebsaufnahme (optional)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Selbstlernfähigkeiten (nicht zwingend erforderlich); darunter versteht man, ob sich das Verhalten des Systems während seiner Verwendung anpassen oder verändern kann (zB automatisches Lernen, wie Muster oder Beziehungen zwischen Daten erkannt werden können).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungsfähigkeit&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Inferenz, Schlüsseleigenschaft; dient der Abgrenzung von KI-Systemen von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen. Nicht umfasst sind hingegen Systeme, die nur von Menschen programmierten Regeln folgen und automatisiert Operationen ausführen. Die Ableitungsfähigkeit bedeutet daher die Erlernung allgemeiner Konzepte statt fester, vorprogrammierter Regeln.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Bsp: maschinelles Lernen, logik- und wissensgestützte Systeme (Schlussfolgerungen mittels Deduktion oder Induktion)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitung aus Eingaben für implizite oder explizite Ziele&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungen müssen nach entweder:&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;expliziten Zielen (klar definierte, direkt in den Code programmierte Ziele, Optimierung von Kostenfunktionen, Wahrscheinlichkeitsberechnung) oder&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;impliziten Zielen (Ableitung des Ziels aus dem Verhalten oder den dahinterstehenden Annahmen des Systems; bspw Trainingsdaten oder Interaktion des Systems mit Umwelt) erfolgen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erzeugung von Ausgaben&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ausgabe-Arten umfassen unter anderem&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Vorhersagen (Schätzungen unbekannter Werte basierend auf komplexen Datenmustern)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Inhalte (Texte, Bilder, Videos oder Musik)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Empfehlungen (Vorschläge für Maßnahmen, Produkte oder Dienstleistungen, die hochgradig personalisiert sind und Massendaten nutzen).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Entscheidungen (Vollautomatisierte Schlussfolgerungen oder Auswahlentscheidungen, die Prozesse automatisieren, die üblicherweise menschlichem Urteilsvermögen vorbehalten sind)&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;zB die generierten Inhalte von Chatbots, Produktvorschläge, Echtzeit-Vorhersagen, Auswahlentscheidungen&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Beeinflussung physischer oder virtueller Umgebungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Frage, ob das System einen aktiven Einfluss auf die Umgebungen hat, in denen es eingesetzt wird, sei es auf materielle physische Objekte oder auf digitale Räume&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB Roboterarm, Software-Ökosysteme, Datenströme&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}  &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI-Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit aus, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). &amp;lt;mark&amp;gt;Man kann hier den Vergleich zu einem KFZ ziehen, wobei das KI-Modell den Motor darstellt, der die eigentliche &amp;quot;Arbeit&amp;quot; leistet. Um jedoch fahrtüchtig zu sein, bedarf es nicht nur eines Motors, sondern das Fahrzeug benötigt darüber hinaus eine Karosserie, Räder, ein Lenkrad etc. Das wiederum bezeichnet das KI-System, welches das Modell erst durch seine Schnittstellen, seine Benutzeroberfläche etc. &amp;quot;fahrtüchtig&amp;quot; und damit nutzbar macht.&amp;lt;/mark&amp;gt; Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen &amp;quot;Nutzer&amp;quot;) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder sich in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollen:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität), unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act trat am &#039;&#039;&#039;1. August 2024&#039;&#039;&#039; in Kraft und wird generell am &#039;&#039;&#039;2. August 2026&#039;&#039;&#039; anwendbar (Art 113 AI Act). Gestaffelt erlangen einige Bestimmungen jedoch bereits vorab oder danach Geltung:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab &#039;&#039;&#039;2. August 2025&#039;&#039;&#039;&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem &#039;&#039;&#039;2. August 2027&#039;&#039;&#039;&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 111 Abs 2 AI Act enthält dabei jedoch eine sog „grandfathering“-Klausel, nach welcher der AI Act für Betreiber von Hochrisiko-KI-Systemen, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, nur dann gilt, wenn diese Systeme danach in ihrer Konzeption erheblich verändert wurden.&amp;lt;ref&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 23, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Verpflichtung zur Maßnahmenergreifung gilt für Betreiber und Anbieter gleichermaßen und ist ferner unabhängig von der Risikoklasse der infragestehenden KI-Anwendung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Unter KI-Kompetenz versteht man grundsätzlich &amp;quot;die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.&amp;quot;&amp;lt;ref&amp;gt;Vgl die Definition in Art 3 Z 56 AI Act.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dies umfasst die notwendigen Kompetenzen, um fundierte Entscheidungen über KI-Systeme zu treffen, technische Elemente zu verstehen sowie korrekt anzuwenden, die Auswirkungen von KI-basierten Entscheidungen auf Betroffene zu verstehen und KI-generierte Ausgaben angemessen zu interpretieren.&amp;lt;ref name=&amp;quot;:1&amp;quot;&amp;gt;Vgl ErwGr 20 AI Act. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dazu gehört auch, den einschlägigen Akteuren der KI-Wertschöpfungskette jene erforderlichen Kenntnisse zu vermitteln, um die Einhaltung und Durchsetzung der Vorschriften des AI Act zu gewährleisten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Weitere Konkretisierungen oder zwingende Mindestvorgaben für die Sicherstellung der KI-Kompetenz enthält der AI Act allerdings nicht und betont sogar, dass die Konzepte der KI-Kompetenz in Bezug auf den jeweiligen Kontext unterschiedlich sein können.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:1&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Die EU-Kommission hat daher ein [https://digital-strategy.ec.europa.eu/de/library/living-repository-foster-learning-and-exchange-ai-literacy &amp;quot;Living Repository&amp;quot;] angelegt, in dem Unternehmen ihre Praktiken in Bezug auf KI-Kompetenz eingetragen haben. Das Repository wird laufend ergänzt, ist jedoch nicht rechtsverbindlich. Weiters bilden die darin enthaltenen Praktiken keine Garantie zur Compliance mit Art 4 AI Act, allerdings stellen sie eine gute Orientierung dar, welche Maßnahmen zur Sicherstellung von KI-Kompetenz in unterschiedlichen Branchen bereits ergriffen werden. Häufig genannte Praktiken umfassen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne eLearning-Plattformen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne Weiterbildungen und Trainingsprogramme,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Kenntnis-basierte Schulungen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Video-/Podcast-Reihen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;spielebasierte Trainings,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Erstellung von KI-Verhaltenskodizes und Risikobewertungssystemen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;eigene Chatbots zum Training im Umgang mit Sprachmodellen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Denkbar ist überdies die Teilnahme an externen Fortbildungen und Schulungen, die Entwicklung von internen Richtlinien (&amp;quot;KI-Guidelines&amp;quot;) oder die Schaffung von sog &amp;quot;KI-Beauftragten&amp;quot; in der Organisation. Ob die Schulungsmaßnahmen fortlaufend zu erfolgen haben, ist rechtlich nicht vorgeschrieben, wird allerdings anzunehmen sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Dieser Ansicht folgend: &#039;&#039;Siglmüller&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 4 KI-Kompetenz Rz 5.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Ebensowenig sind die genauen Inhalte der Kompetenzvermittlungsmaßnahmen definiert. Es kann jedenfalls davon ausgegangen werden, dass diese zielgruppengerecht und zugeschnitten auf unterschiedliche Bedürfnisse erfolgen sollten. Weiters werden sie sich bei manchen Branchen, KI-Einsatzgebieten oder Personengruppen nicht lediglich auf rechtliche oder technische Anforderungen beschränken, sondern ebenso soziale und ethische Komponenten umfassen. Bei der Entwicklung und Nutzung von GPAI-Modellen wird beispielsweise die Vermittlung von Kenntnissen im Zusammenhang mit Urheberrecht, Datenschutz, &amp;quot;Bias&amp;quot; (Verzerrungen) oder &amp;quot;Halluzinationen&amp;quot; (erfundene falsche Ausgaben) sinnvoll sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger,&#039;&#039; Wissenskultur im KI-Zeitalter – eine Auseinandersetzung mit der KI-Kompetenz nach Art 4 AI Act und ihren praktischen Implikationen, ZIIR 2025, 250.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die EU-Kommission hat darüber hinaus eine [https://digital-strategy.ec.europa.eu/de/faqs/ai-literacy-questions-answers &amp;quot;FAQ-Seite&amp;quot;] mit Fragen und Antworten zur KI-Kompetenz angelegt, um einen besseren Überblick über die Anforderungen zu geben.&amp;lt;/mark&amp;gt;    &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten, &amp;lt;mark&amp;gt;da sie besonders schädlich sind, enormes Missbrauchspotenzial aufweisen und im Widerspruch zu europäischen Grundrechten und Grundfreiheiten stehen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 28 AI Act.&amp;lt;/mark&amp;gt; MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt; (Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt; Folgende Praktiken sind davon umfasst: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Praktik&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Nicht erfasste Praktiken&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsgrundlage&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Unterschwellige Beeinflussung außerhalb des Bewusstseins oder manipulative/täuschende Techniken&#039;&#039;&#039;, wodurch die freie Entscheidungsfähigkeit von Personen beeinträchtigt wird und ein Schaden mit hinreichender Wahrscheinlichkeit eintritt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ableitung sensibler Informationen aus Gehirnen von Nutzern über Maschine-Gehirn-Schnittstellen&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 29 AI Act sowie Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 66.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Chatbots, die zur Selbstverletzung verleiten&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 87.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Unterschwellige visuelle oder auditive Reize bzw generelle sensorische Manipulation&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 65 und 68.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erlaubt ist hingegen der Einsatz eines KI-Systems, das personalisierte Empfehlungen auf der Grundlage transparenter Algorithmen und Nutzerpräferenzen verwendet, und sich nicht absichtlich manipulativer Techniken bedient.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 128.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit a&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Ausnutzen der Vulnerabilität/Schutzbedürftigkeit&#039;&#039;&#039; aufgrund des Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine KI-Begleit-App, die durch gewisse Sprachmuster und Verhaltensweisen gezielt emotionale Abhängigkeiten und ungesunde Bindungen bei älteren Menschen erzeugt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-gestütztes Spielzeug, das Kinder zu riskanten Herausforderungen ermutigt oder durch süchtig machende Techniken zu übermäßigem Spielen anregt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte &amp;quot;Grooming-Praktiken&amp;quot; (gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht), um Mädchen mit Behinderung im Internet anzusprechen und zu manipulieren&amp;lt;ref&amp;gt;Vgl Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 88 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Kinder beim Lernen einer Fremdsprache durch den Einsatz unterschwelliger Techniken unterstützen soll, sofern sie transparent arbeitet und die Nutzerautonomie wahrt.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Benommenheit und Ermüdung bei Fahrern erkennen und sie im Einklang mit den Sicherheitsvorschriften mit Warnmeldungen auf Ruhepausen hinweisen, gelten ebenso nicht als Ausnutzung von Vulnerabilitäten.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 130ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit b&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social scoring&#039;&#039;&#039; (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Verwendung eines KI-Systems zur Schätzung der Betrugswahrscheinlichkeit bei Empfängern von Haushaltszulagen durch das Sozialamt, das sich auf Merkmale stützt, die in sozialen Kontexten ohne offensichtlichen Zusammenhang mit oder Relevanz für die Bewertung von Betrug erhoben oder abgeleitet werden, wie zB ein Ehepartner mit einer bestimmten Staatsangehörigkeit oder ethnischen Herkunft, der Besitz eines Internetanschlusses, das Verhalten auf sozialen Plattformen oder die Leistung am Arbeitsplatz etc.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems durch eine öffentliche Stelle, um für die Früherkennung gefährdeter Kinder anhand von Kriterien wie der psychischen Gesundheit und Arbeitslosigkeit der Eltern, aber auch anhand von aus verschiedenen Kontexten abgeleiteten Informationen über das soziale Verhalten der Eltern Familienprofile zu erstellen. Auf der Grundlage der erzielten Bewertung werden Familien für Kontrollen ausgewählt und als „gefährdet“ geltende Kinder werden aus ihren Familien genommen, unter anderem auch in Fällen geringfügiger Übertretungen seitens der Eltern, wie zB gelegentlich verpasste Arzttermine oder verhängte Verkehrsstrafen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine Regierung führt ein umfassendes KI-gestütztes System ein, das die Bürgerinnen und Bürger auf der Grundlage ihres Verhaltens in verschiedenen Lebensbereichen wie sozialen Interaktionen, Online-Aktivitäten, Kaufgewohnheiten und Pünktlichkeit bei der Begleichung von Rechnungen überwacht und einstuft. Menschen mit einer niedrigeren Bewertung müssen damit rechnen, dass sie eingeschränkten Zugang zu öffentlichen Dienstleistungen erhalten, höhere Zinsen auf Kredite zahlen und auf Reisen und bei der Suche nach einer Wohnung oder sogar einem Arbeitsplatz Schwierigkeiten haben.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 166 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Bonitätsprüfung natürlicher Personen auf Basis persönlicher Merkmale wie dem Einkommen vor Vergabe eines Kredits.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basierte Erhebung von Geschwindigkeitsüberschreitungen oder hochriskantem Fahrverhalten, die zur Erhöhung der KFZ-Versicherungsprämien führen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte gezielte kommerzielle Werbung fällt nicht in den Anwendungsbereich, wenn sie auf relevanten Daten (z. B. Nutzerpräferenzen) beruht, im Einklang mit den Rechtsvorschriften der Union über Verbraucherschutz, Datenschutz und digitale Dienste erfolgt und nicht zu einer Schlechterstellung oder Benachteiligung führt, die in keinem angemessenen Verhältnis zur Tragweite des sozialen Verhaltens des Nutzers steht (z. B. ausbeuterische und unfaire differenzierte Preisgestaltung).&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 177.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit c&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Bewertung des Risikos, dass eine Person eine Straftat&#039;&#039;&#039; begeht (ausschließlich aufgrund von Profiling)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Eine Polizeidienststelle verwendet KI-gestützte Risikobewertungsinstrumente, um das Risiko zu bewerten, dass kleine Kinder und Jugendliche an „künftigen Gewalttaten und Eigentumsdelikten“ beteiligt sein werden. Das System bewertet Kinder auf der Grundlage ihrer Beziehungen zu anderen Menschen und deren vermeintlichen Risikoniveaus, dh es wird eventuell davon ausgegangen, dass bei Kindern ein höheres Risiko für die Begehung von Straftaten besteht, einfach weil sie mit einer anderen Person wie einem Geschwisterkind oder einem Freund verbunden sind, bei der eine hohe Risikobewertung vorliegt. Das Risikoniveau der Eltern kann sich ebenfalls auf das Risikoniveau eines Kindes auswirken.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 202.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Standortbezogene oder geodatenbasierte Vorhersagen oder ortsbezogene Verbrechensvorhersagen (zB KI-System zur Berechnung der Kriminalitätswahrscheinlichkeit in bestimmten Stadtgebieten oder von Schmuggelrouten)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Unterstützung der durch Menschen durchgeführten Bewertung, die sich auf objektive und überprüfbare Tatsachen stützt, die in Zusammenhang mit einer kriminellen Aktivität stehen (zB Profiling zur Vorhersage gefährlichen Verhaltens in einer Menschenmenge, KI-basiertes Profiling von Personen, gegen die bereits ein Verdacht besteht, der auf mehreren überprüfbaren, objektiven Tatsachen beruht).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basiertes Profiling in Bezug auf juristische Personen&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur individuellen Vorhersage von Ordnungswidrigkeiten (zB Bagatellverkehrsdelikte)&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 212 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit d&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erstellung/Erweiterung von &#039;&#039;&#039;Datenbanken&#039;&#039;&#039; zur Gesichtserkennung durch &#039;&#039;&#039;ungezieltes Auslesen von Gesichtsbildern&#039;&#039;&#039;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen für Gesichtserkennungssoftware sammelt Bilder von Gesichtern, die mit einem „automatisierten Bildausleser“, der das Internet durchsucht und Bilder mit menschlichen Gesichtern erkennt, aus sozialen Medien (zB Facebook, X) ausgelesen wurden. Der Bildausleser sammelt diese Bilder mit allen damit verbundenen Informationen (wie der Quelle des Bildes (URL), der Geolokalisierung und manchmal den Namen der einzelnen Personen). Die Gesichtsmerkmale werden dann aus den Bildern extrahiert und in mathematische Darstellungen umgewandelt, die für die Indexierung und den künftigen Vergleich mit Hashtags versehen werden. Wenn ein Nutzer das Bild einer Person in das KI-System hochlädt, wird dieses System bestimmen, ob dieses Bild mit einem Gesicht in der Datenbank übereinstimmt.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 232.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Das ungezielte Auslesen anderer biometrischer Daten als Gesichtsbilder (zB Stimmaufnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Gesichtsbilddatenbanken, die nicht für die Erkennung von Personen verwendet werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Gesichtsbilder aus dem Internet sammeln, um KI-Modelle zur Erzeugung neuer Bilder fiktiver Personen zu entwickeln&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit e&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Emotionserkennungssysteme&#039;&#039;&#039; am Arbeitsplatz oder in Bildungseinrichtungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das beispielsweise aus Gesten, Stirnrunzeln oder fehlendem Lächeln ableitet, dass ein Mitarbeiter unglücklich, traurig oder gegenüber den Kunden wütend ist&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Systeme, die aus Stimmführung oder Körpersprache ableiten, dass ein Schüler zornig und im Begriff ist, gewalttätig zu werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Emotionen aus Tastenanschlägen (Art des Tippens), Gesichtsausdrücken, Körperhaltungen oder Bewegungen ableitet, beruht auf biometrischen Daten und fällt in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die den emotionalen Ton in hybriden Arbeitsteams überwachen, indem sie Emotionen aus Stimm- und Bildaufnahmen hybrider Videokonferenzen erkennen und ableiten, was in Regel der Förderung des sozialen Bewusstseins, des Managements emotionaler Dynamik und der Konfliktverhütung dienen würde&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems bei Online-Prüfungen zur Erkennung von Emotionen wie Erregungs- und Angstzustände&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung zur Bewertung des Wohlbefindens, des Motivationsniveaus und der Arbeits- oder Lernzufriedenheit von Studierenden oder Arbeitnehmern.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der Einsatz von KI-Erkennungssystemen, um auf die Ermüdung eines Berufspiloten oder -fahrers zu schließen, ihn zu warnen und ihm zu empfehlen, zur Vermeidung von Unfällen Pausen einzulegen, da Emotionserkennung keine physischen Zustände wie Schmerzen oder Ermüdung einschließt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das aus schriftlichen Texten (Analysen von Inhalt und Stimmung) Emotionen ableitet, um den Stil oder den Ton eines bestimmten Artikels zu bestimmen, beruht nicht auf biometrischen Daten und fällt daher nicht in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Werden Emotionserkennungssysteme nur zu persönlichen Schulungszwecken eingesetzt, sind sie zulässig, sofern die Ergebnisse nicht Personen mit Personalverantwortung zur Verfügung gestellt werden und keine Auswirkungen auf das Arbeitsverhältnis haben&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die durch eine Bildungseinrichtung erfolgende Verwendung einer KI-gestützten Software zur Verfolgung der Augenbewegungen bei Online-Prüfungen Studierender, um den Fixierungspunkt und die Bewegung der Augen zu verfolgen (um beispielsweise zu erkennen, ob unerlaubtes Material verwendet wird), ist nicht verboten, da das System Emotionen weder erkennt noch ableitet&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung aus medizinischen Gründen zur Unterstützung von Arbeitnehmern oder Studierenden mit Autismus und zur Verbesserung der Barrierefreiheit für blinde oder gehörlose Menschen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit f&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Kategorisierung,&#039;&#039;&#039; Ableitung von sensiblen Daten (religiöse Weltanschauung, politische Einstellung)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Personen, die auf einer Plattform sozialer Medien aktiv sind, nach ihrer angenommenen politischen Ausrichtung kategorisiert, indem es die biometrischen Daten der von ihnen auf die Plattform hochgeladenen Fotos analysiert, um ihnen gezielte politische Nachrichten zu übermitteln&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;ein System zur biometrischen Kategorisierung, das für sich in Anspruch nimmt, die religiöse Ausrichtung einer Person aus ihren Tätowierungen oder ihrem Gesicht ableiten zu können.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 280 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die mit der Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze, auch zu Strafverfolgungszwecken, befasst sind (zB bei Verdacht auf Darstellungen sexuellen Kindesmissbrauchs)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;die Kategorisierung von Patienten, bei der Bilder nach ihrer Haut- oder Augenfarbe verwendet werden, für medizinische Diagnosen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 284 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit g&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Echtzeit-Fernidentifizierungssysteme&#039;&#039;&#039; in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die polizeiliche Verwendung von Systemen zur biometrischen Echtzeit-Fernidentifizierung zu dem Zweck, Ladendiebe zu identifizieren und ihre Gesichtsbilder mit Kriminaldatenbanken zu vergleichen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 328.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung von Echtzeit-Gesichtserkennungstechniken durch die Polizei nach einem schweren Terroranschlag auf einen Weihnachtsmarkt mit zwölf Toten, um den Täter zu identifizieren und festzustellen, wohin er flieht. In diesem Zusammenhang nutzen sie auch die Echtzeit-Gesichtserkennungstechnik des nahe gelegenen Bahnhofs und der Zielbahnhöfe der Züge, die kurz nach dem Angriff von dort abgehen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 354.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit h&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&amp;lt;br /&amp;gt;&lt;br /&gt;
Einige dieser Praktiken sind darüber hinaus bereits nach anderen Rechtsvorschriften verboten, so beispielsweise gewisse manipulative und täuschende Techniken als &amp;quot;dark patterns&amp;quot; nach dem [[Digital Services Act (DSA)|Digital Services Act]] (gilt nur für bestimmte Plattform-Anbieter) oder die Verarbeitung biometrischer Daten zur Identifizierung einer Person nach Art 9 Abs 1 DSGVO, sofern keine der in Abs 2 genannten Ausnahmen vorliegt. Gemäß der neuen Plattformarbeitsrichtlinie&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Richtlinie (EU) 2024/2831 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit, ABl L 11. 11. 2024.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;, die bis Dezember 2026 in nationales Recht umzusetzen ist, ist überdies der Einsatz von automatisierten Überwachungs- und Entscheidungssystemen zur Erfassung personenbezogener Daten über den emotionalen oder psychischen Zustand einer Person (Emotionserkennung) verboten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;MwN &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2024) Art 5 Rz 104.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act klassifiziert Hochrisiko-KI-Systeme in Art 6. Dabei kennt er zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige&amp;quot; Hochrisiko-KI-Systeme bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei folgenden Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder stellt selbst ein solches Produkt dar&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten: bspw biometrische Identifizierung, kritische Infrastrukturen, grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle, Justiz und demokratische Prozesse).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis einer Entscheidungsfindung, an der das System beteiligt ist, wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot; &amp;lt;mark&amp;gt;Als Profiling gilt dabei iSd Art 4 Abs 4 DSGVO jede automatisierte Verarbeitung personenbezogener Daten, die darin besteht, bestimmte persönliche Aspekte einer Person zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, Gesundheit, persönliche Vorlieben, Zuverlässigkeit, Verhalten etc. zu analysieren oder vorherzusagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Europäische Kommission hat im Rahmen von Public Consultations unter anderem auch Rückmeldungen zu Anforderungen an Hochrisiko-KI-Systeme eingeholt, die eine Grundlage für Leitlinien bilden sollen, welche im Februar 2026 veröffentlicht werden sollen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;European Commission, Commission launches public consultation on high-risk AI systems, https://digital-strategy.ec.europa.eu/en/news/commission-launches-public-consultation-high-risk-ai-systems (Stand 6.6.2025).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Pflichten für Betreiber von Hochrisiko-KI-Systemen&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Betreiberpflichten nach Art 26 AI Act&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis &amp;lt;mark&amp;gt;([https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#KI-Kompetenz/AI_literacy_(Art_4_AI_Act) &amp;quot;KI-Kompetenz&amp;quot;] nach Art 4&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 40. &amp;lt;/ref&amp;gt;)&amp;lt;/mark&amp;gt; verfügen und ihnen die erforderliche Unterstützung zukommen lassen. &lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von automatisiert erzeugten &#039;&#039;&#039;Protokollen&#039;&#039;&#039; &amp;lt;mark&amp;gt;für einen Zeitraum von zumindest 6 Monaten (wobei hier entgegenstehende datenschutzrechtliche Regelungen vorgehen würden&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 42.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;)&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, vor Verwendung oder Inbetriebnahme des Hochrisiko-KI-Systems am Arbeitsplatz. &amp;lt;mark&amp;gt;Dies umfasst sowohl den Einsatz von &amp;quot;eingebetteten&amp;quot; als auch &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Weiters sind die Mitwirkungspflichten des Betriebsrats zu berücksichtigen (vgl §§ 96 f ArbVG). Nicht umfasst sind wahrscheinlich Informationspflichten gegenüber Bewerbern, da diese tendenziell nicht unter den von dieser Bestimmung geforderten &amp;quot;Arbeitnehmer-Begriff&amp;quot; fallen&amp;lt;/mark&amp;gt;.&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet. &amp;lt;mark&amp;gt;Diese Bestimmung gilt lediglich für den Einsatz von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen nach Art 6 Abs 2 iVm Anhang III.Die danach mitzuteilende Information sollte die Zweckbestimmung und die Art der getroffenen Entscheidung beinhalten (vgl ErwGr 93) sowie - nach einer hier vertretenen Auffassung - eine vorab Information über das Recht auf Erklärung nach Art 86 AI Act, welches von KI-Entscheidungen Betroffenen das Recht zugesteht, unter gewissen Voraussetzungen vom Betreiber eine klare und aussagekräftige Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess sowie zu den wichtigsten Elementen der getroffenen Entscheidung zu erhalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe die entsprechende Argumentationslinie im Detail: &#039;&#039;Research Institute&#039;&#039;, Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025) 100 ff, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.  &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 27 Abs 4 macht überdies die Verzahnung der Grundrechte-Folgenabschätzung (GRFA) mit anderen Folgenabschätzungen deutlich und schreibt bspw vor, dass bei Vorliegen einer Datenschutz-Folgenabschätzung nach Art 35 DSGVO die GRFA diese ergänzen bzw in diese integriert werden solle.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Piltz/Zwerschke&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 27 Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme Rz 32.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Sowohl die Verpflichtungen nach Art 26 als auch die Durchführung einer GRFA nach Art 27 treffen den Betreiber unabhängig davon, ob jemand (bspw Betroffene) deren Einhaltung einfordern. Im Unterschied dazu enthält der AI Act in den Artt 85 ff sog &amp;quot;Betroffenenrechte&amp;quot;, die aktiv von betroffenen Personen geltend zu machen sind. Dazu zählt insbesondere das [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Recht auf Erklärung nach Art 86], welches das einzige Betroffenenrecht darstellt, das direkt gegen den Betreiber durchsetzbar ist.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführer oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn die genannten Personen ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen;&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt;&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das &#039;&#039;nicht&#039;&#039; als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird.&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter (Erstanbieter) nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat jedoch mit dem neuen Anbieter zusammenzuarbeiten, insb Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI Act muss beachtet werden, dass die Rollenverteilung eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters erfolgt, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden &amp;lt;mark&amp;gt;sowie den Anforderungen an die Barrierefreiheit genügen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots, &amp;lt;mark&amp;gt;Sprachassistenten, Social Bots)&amp;lt;/mark&amp;gt;, sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Pflicht kann entfallen, wenn die Interaktion mit dem KI-System aus Sicht einer angemessen informierten, aufmerksamen und verständigen Person offensichtlich ist oder beim Einsatz von KI-Systemen, die für die Strafverfolgung zugelassen sind.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 43.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
*&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 40.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Chatbots&#039;&#039;&#039; können durch einen textlichen Hinweis zu Beginn des Gesprächs oder ein dauerhaft angezeigtes grafisches Symbol vorgestellt werden.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Bei &#039;&#039;&#039;Voicebots&#039;&#039;&#039; kommt eine der Interaktion vorausgehende Ansage, welche auf den KI-Einsatz hinweist, in Betracht.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social Bots&#039;&#039;&#039; können eine Information vor und mit jeder Interaktion des Bots in sozialen Netzwerken erfordern, da das System stets mit einem neuen Personenkreis in Interaktion tritt (zB AI-Influencer).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Das KI-Büro hat am 5. November 2025 Arbeiten an einem Verhaltenskodex in Bezug auf die Kennzeichnung von KI-generierten Inhalten aufgenommen. Die entsprechenden Leitlinien werden in einem siebenmonatigen Prozess, der sich insbesondere durch die Einbindung von relevanten Stakeholdern und öffentliche Konsultationen auszeichnen soll, erarbeitet werden. Näheres unter: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Mögliche Methoden wären bspw Wasserzeichen, Metadatenidentifizierungen, Kryptografische Methoden (zB &amp;quot;Hashing&amp;quot;), Protokollierungsmethoden oder Fingerabdrücke.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 133 Satz 4 sowie mwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 84 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Denkbar ist bspw eine Umsetzung in Form eines sichtbaren Wasserzeichens, eines textlichen Hinweises, durch Hinzufügen von sog C2PA-Content Credentials&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Die C2PA („Coalition forContent Provenanceand Authenticity“) ist ein branchenübergreifendes Non-profit-Projekt, das die Entwicklung gemeinsamer technischer Standards zur Ermittlung der Herkunft von digitalen Inhalten zum Ziel hat. Siehe dazu https://c2pa.org/. So hat sich bspw LinkedIn bei der Erkennung KI-generierter Inhalte diesen Standards unterworfen: https://www.linkedin.com/help/linkedin/answer/a6282984. MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 150.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;oder bei Audioinhalten durch eine Ansage zu Beginn des Audioinhalts.&amp;lt;ref&amp;gt;&#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 148 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Verpflichtung entfällt, wenn die betreffenden Inhalte vor ihrer Veröffentlichung einer menschlichen oder redaktionellen Kontrolle unterzogen wurden und eine Person die redaktionelle Verantwortung dafür trägt. Da die Anforderungen an die menschliche bzw redaktionelle Kontrolle nicht konkretisiert werden, unterwerfen sich bspw im journalistischen Bereich zahlreiche Medien freiwilligen Leitlinien (so etwa die [https://www.blm.de/files/pdf2/ki-leitlinien.pdf Leitlinien des Medienrats der Bayerischen Landeszentrale für neue Medien (BLM) zum Einsatz von Künstlicher Intelligenz im Journalismus]).&amp;lt;ref&amp;gt;MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 163 f.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als &amp;quot;KI-Systeme mit minimalem Risiko&amp;quot; bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf den sprunghaften Durchbruch generativer KI-Modelle, die für viele verschiedene Zwecke eingesetzt werden können, in den Jahren 2022 und 2023 wurden unter Durchbrechung des bisherigen zweck- und risikoorientierten Regelungsansatzes im Entwurfsstadium des AI Act nachträglich Regeln für solche Modelle eingefügt. Ein GPAI-Modell (in früheren Entwurfsfassungen foundation model/Basismodell) ist dabei in Art 3 Z 63 AI Act definiert als ein KI-Modell, das&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;das eine erhebliche allgemeine Verwendbarkeit aufweist,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;In den von der EU-Kommission im Juli 2025 veröffentlichten Leitlinien zu GPAI-Modellen werden eine kumulierte Menge der für das Training verwendeten Berechnungen gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; von mehr als 10&amp;lt;sup&amp;gt;23&amp;lt;/sup&amp;gt; und die Fähigkeit, geschriebene oder gesprochene Sprache (aber auch Bilder oder Videos aus Text) zu generieren, als Anhaltspunkte für das Vorliegen eines GPAI-Modells angegeben, es sei denn, das Modell erfüllt die oben angegebenen Kriterien der Allgemeinheit nicht (zB weil es spezifisch nur für die Transkription von Sprache in Text trainiert wurde).&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 13 ff.&amp;lt;/ref&amp;gt; Somit ist davon auszugehen, dass die üblichen [https://de.wikipedia.org/wiki/Large_Language_Model LLM]s, wie die GPT-Serie von OpenAI, die Gemini-Serie von Google oder die Claude-Serie von Anthropic als GPAI-Modelle im Sinne dieser Definition einzustufen sind.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt.&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Abgrenzung der Rollen entlang der Wertschöpfungskette&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&amp;lt;mark&amp;gt;In Bezug auf GPAI-Modelle können folgende Rollen unterschieden werden:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Anbieter (Providers) von GPAI-Modellen:&#039;&#039;&#039; Entwickeln ein GPAI-Modell oder lassen es entwickeln und bringen es ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr oder nehmen es unter ihrem eigenen Namen oder ihrer Handelsmarke in Betrieb, sei es entgeltlich oder unentgeltlich (Art 3 Z 3 AI Act);&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 48 ff.&amp;lt;/ref&amp;gt; sie treffen primär die nachfolgend beschriebenen Pflichten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Modifizierer (Downstream Modifiers) von GPAI-Modellen&#039;&#039;&#039;: Fine-tunen/modifizieren&amp;lt;ref&amp;gt;Vgl ErwGr 97 Satz 5.&amp;lt;/ref&amp;gt; bestehende GPAI-Modelle anderer Anbieter; laut der Kommission ist nicht jeder Modifizierer dadurch gleich als Anbieter des modifizierten GPAI-Modells anzusehen, dies jedoch dann, wenn die Modifikation des GPAI-Modells zu einer wesentlichen Änderung der Universalität, der Leistungsfähigkeit oder des systemischen Risikos des GPAI-Modells führt, wobei als Indiz dafür gilt, dass die Anzahl der Berechnungen für die Modifikation ein Drittel jener für das Training des ursprünglichen GPAI-Modells übersteigt.&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 60 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Anbieter (Downstream Providers) von KI-Systemen:&#039;&#039;&#039; Integrieren GPAI-Modelle in KI-Systeme; ein wesentlicher Zweck der Regulierung von GPAI-Modellen ist, dass nachgelagerte Anbieter, ein GPAI-Modell in ihr KI-System integrieren, Informationen über dieses Modell erhalten und darauf basierend ihren eigenen Verpflichtungen (nach den allgemeinen Regeln des AI Act für KI-Systeme) nachkommen zu können.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Betreiber (Deployers):&#039;&#039;&#039; Nutzen ein KI-System im praktischen Einsatz.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme der Hauptgegenstand der Regulierung durch den AI Act sind (risikobasierten Ansatz), unterliegen auf Ebene der Modelle nur GPAI-Modelle einer direkten Regulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese Regulierung unterscheidet zwischen GPAI-Modellen ohne und GPAI-Modellen mit systemischem Risiko. Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act), &lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über &amp;quot;Fähigkeiten mit hohem Wirkungsgrad&amp;quot; verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; FLOPs beträgt. Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act). Oder&lt;br /&gt;
* wenn die Kommission in einer Entscheidung festgestellt hat, dass es über solche Fähigkeiten oder eine solche Wirkung verfügt (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden. &lt;br /&gt;
* Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
* eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
* eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
* mögliche systemische Risiken auf Unionsebene bewerten und mindern,&lt;br /&gt;
* einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
* ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten.&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung des AI Act beitragen sollen.&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von GPAI-Modellen sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 56 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 10. Juli 2025 wurde der Praxisleitfaden &amp;quot;[https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai General-Purpose AI Code of Practice]&amp;quot; veröffentlicht und von der EU-Kommission und vom KI-Gremium am 1. August 2025 gem Art 56 Abs 6 AI Act als angemessen bewertet.&amp;lt;ref&amp;gt;Europäische Kommission, Erstellung eines allgemeinen KI-Verhaltenskodex, https://digital-strategy.ec.europa.eu/de/policies/ai-code-practice.&amp;lt;/ref&amp;gt; Zu diesem wurde auch eine [https://digital-strategy.ec.europa.eu/de/faqs/questions-and-answers-code-practice-general-purpose-ai FAQ-Seite] veröffentlicht. Auch ein [https://ec.europa.eu/newsroom/dae/redirection/document/118118 Musterdokumentationsformular für Modelle] ist Teil des GPAI Code of Practice. Zusätzlich hat die EU-Kommission am 18. Juli 2025 auch [https://ec.europa.eu/newsroom/dae/redirection/document/118340 Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act] veröffentlicht.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Für Anbieter von GPAI-Modellen, die den GPAI Code of Practice unterzeichnen und diesen einhalten, können dadurch nachweisen, dass sie den AI Act einhalten.&amp;lt;ref&amp;gt;Vgl Art 50 Abs 7 und Art 53 Abs 4 AI Act sowie Europäische Kommission, Der General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/de/policies/contents-code-gpai.&amp;lt;/ref&amp;gt; Damit soll Rechtssicherheit geschaffen werden. Es handelt sich dabei aber um eine freiwillige Maßnahme und es steht Anbietern von GPAI-Modellen somit frei, die entsprechenden Bestimmungen des AI Act auch auf andere Weise umzusetzen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Auf der oben verlinkten Website des GPAI Code of Practice ist angegeben, welche Anbieter von GPAI-Modellen diesen unterzeichnet haben. Darunter finden sich die meisten Anbieter der gängigen LLMs, wie Anthropic, Google, OpenAI und Mistral AI.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der AILD und PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Stand November 2025 wurde in Österreich noch keine Behörde als zuständige Marktüberwachungsbehörde eingerichtet oder benannt. Bereits mit 2. November 2024 sind jedoch einige Behörden und öffentliche Stellen im Grundrechtsbereich gemäß Art 77 Abs 2 mit Aufsichts- und Durchsetzungsbefugnissen für Grundrechte insb im Zusammenhang mit Hochrisiko-KI ausgestattet worden, darunter die Volksanwaltschaft, die Datenschutzbehörde, die Arbeiterkammer, die Gleichbehandlungskommission, die Behindertenanwaltschaft, die KommAustria uvm.&amp;lt;ref&amp;gt;Mehr dazu unter: https://www.digitalaustria.gv.at/themen/kuenstliche-intelligenz/behoerden-art77-ai-act.html.&amp;lt;/ref&amp;gt; Dabei treffen auch die (künftig) zuständige Marktüberwachungsbehörde umfassende Kooperationspflichten, wie etwa die Meldung schwerwiegender Grundrechtsvorfälle in diesem Kontext an die genannten Einrichtungen (vgl Art 73 Abs 7 und Art 79 Abs 2 AI Act).&amp;lt;ref&amp;gt;Vgl &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 103, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Dazu hat die Kommission entsprechende Leitlinien zu veröffentlichen, die sich gerade in Ausarbeitung befinden.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung im Einzelfall betroffen sind,&lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (&amp;lt;mark&amp;gt;Recht auf Erläuterung der Entscheidungsfindung im Einzelfall gemäß Art 86 Abs 1 AI Act oder auch gemeinhin als &#039;&#039;&#039;&amp;quot;Recht auf Erklärung&amp;quot;&#039;&#039;&#039; bezeichnet&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157; &#039;&#039;Poindl/Müller,&#039;&#039; Das Recht auf Erklärung im AI Act. Betroffenenrecht mit Potenzial oder Papiertiger?, VbR 2025, 40. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei ist es unerheblich, ob das KI-System die Entscheidung gänzlich autonom getroffen hat oder unterstützend beteiligt war, es darf lediglich keine untergeordnete Rolle im Entscheidungsprozess gespielt haben.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Steht das Recht auf Erklärung zu, hat die betroffene Person einerseits das Recht, eine Erklärung über die Rolle des KI-Systems im Entscheidungsprozess zu verlangen, worunter einerseits Informationen über die zentralen Aufgaben des Systems im Entscheidungsprozess fallen (zB Zielgruppenselektion, Datenanalyse, Vorgabe der Entscheidung usw.) und andererseits auch der Grad dessen Beteiligung (gering, mittel, hoch), was umgekehrt auch den Grad menschlicher Beteiligung an der Entscheidungsfindung erfordert. Weiters sind die wichtigsten Elemente der Entscheidung zu beauskunften, beispielsweise Eingabedaten, wesentliche Entscheidungsgründe, kontrafaktische Erklärungen (inwiefern hätten andere Parameter zu einer anderen Entscheidungen geführt), die Auswirkungen der Entscheidung, die Gewichtung der einzelnen Kriterien und die Verarbeitungslogik (Informationen über die grobe Funktionsweise des KI-Systems, keine komplette Offenlegung des algorithmischen Codes). Weiters muss die Erklärung präzise, korrekt, verständlich, nicht zu technisch (keine komplexen mathematischen Formeln), aber dennoch vollständig sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letzter Referenzpunkt ist stets, ob die betroffene Person auf Basis der erlangten Informationen weitere Rechte geltend machen kann, da das Recht auf Erklärung auch oft als &amp;quot;Türöffner&amp;quot; für die Geltendmachung weiterer Rechte dient (so wird bspw eine Klage wegen Diskriminierung in einem Entscheidungsprozess erst erhoben werden können, wenn die betroffene Person genügend Informationen hat, um die Diskriminierung darzulegen, bspw die Gewichtung von bestimmten persönlichen Merkmalen, die ausschlaggebend für die Entscheidung war).&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Es handelt sich somit um ein nachgelagertes bzw &#039;&#039;ex post&#039;&#039; Recht, das nicht nur globale, abstrakte Systemerklärungen erfordert, sondern auch lokale, einzelfallbezogene Auskünfte umfasst, damit die betroffene Person die Informationen wirksam nutzbar machen kann .&amp;lt;/mark&amp;gt; Das Recht auf Erklärung steht Betroffenen gegenüber Betreibern und nicht gegenüber Anbietern zu, wobei letztere wiederum Betreibern entsprechende Betriebsanleitungen bereitzustellen haben (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung gilt nicht, sofern Ausnahmen nach Unionsrecht oder nationalem Recht bestehen (Art 86 Abs 2). Zu denken wäre hier etwa an Beschränkungen der Informationspflicht aufgrund geschützter Betriebs- oder Geschäftsgeheimnisse, wobei diese nicht zu einer pauschalen Auskunftsverweigerung führen dürfen.&amp;lt;/mark&amp;gt; Art 86 Abs 1 gilt überdies nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung Subsidiarität] ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung ist immer dann relevant, wenn Unternehmen, Behörden etc. KI in Entscheidungsfindungsprozessen einsetzen, die Auswirkungen auf bestimmte Personen(-gruppen) haben. Zu denken ist etwa an KI-basierte Entscheidungen über die Vergabe von Krediten, über die Berücksichtigung einer Bewerbung, über die Höhe einer Versicherungsprämie oder personalisierte Werbeschaltungen auf Basis von Emotionserkennung.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zum Umgang mit dem Recht auf Erklärung in der Praxis hat das &#039;&#039;Research Institute&#039;&#039; im Auftrag des Bundesministeriums für Arbeit, Soziales, Gesundheit, Pflege und Konsumentenschutz Leitlinien entwickelt:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:f1685e43-21b8-48f3-9fe5-2c61898960ae/Final_Aufkl%C3%A4rung%204.0_Unternehmensleitfaden_April2025.pdf Leitfaden für Unternehmen] im Umgang mit Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:40ba630c-39af-4b8d-8768-a69192427b09/Final_Aufkl%C3%A4rung%204.0_Konsumentinnenleitfaden_April2025.pdf Leitfaden für Konsument:innen und ihre Interessenvertretungen] zur Durchsetzung ihrer Rechte&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf Theoretischer Grundlagenbericht] zur wissenschaftlichen Fundierung der ausgesprochenen Empfehlungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Grundlegende Überschneidungen zwischen dem AI Act und der Datenschutz-Grundverordnung (DSGVO)&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Da KI-Systeme bzw -Modelle häufig personenbezogene Daten verarbeiten - bspw im Rahmen des Trainings eines KI-Modells oder zur Entscheidungsunterstützung in Bezug auf konkrete Personen -, stellt sich unweigerlich die Frage nach dem Zusammenwirken des AI Act mit der DSGVO.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Der Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA) des LfDI Baden-Württemberg enthält eine Auswahl von Orientierungshilfen verschiedener Aufsichtsbehörden und Gremien zu den Schnittstellen von DSGVO und KI: https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0. MwN &#039;&#039;Holtz/Ledendal,&#039;&#039; AI Data Governance - Overlaps Between the AI Act and the GDPR (iE, 2026): https://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1996843&amp;amp;dswid=-4177 sowie der [https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/DE-Bridge-Blueprint-v.0.9.pdf &amp;quot;Bridge Blueprint&amp;quot;-Entwurf] zur einheitlichen Anwendung von Datenschutz- und KI-Regulierung des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI).&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letztere knüpft ihren Anwendungsbereich nämlich an die Verarbeitung personenbezogener Daten iSd Art 4 Abs 1 DSGVO, worunter alle Informationen zu verstehen sind, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Die DSGVO ist seit 2018 in Anwendung und verfolgt den Grundsatz, dass jegliche Verarbeitung personenbezogener Daten verboten ist, es sei denn, es liegt ein Erlaubnistatbestand nach Art 6 Abs 1 DSGVO vor. Für die Verarbeitung sog &amp;quot;sensibler Daten&amp;quot; nach Art 9 DSGVO (zB Gesundheitsdaten, die ethnische Herkunft, die religiöse Weltanschauung etc.) legt sie noch strengere Maßstäbe an. Damit verfolgt die DSGVO einen horizontalen sowie prinzipienbasierten Ansatz, wonach bei der Verarbeitung personenbezogener Daten bestimmte Anforderungen und Grundsätze einzuhalten sind, ungeachtet der verwendeten Technologie, des Sektors oder des Einsatzgebiets.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 32, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus orientiert sich die Verordnung daran, inwieweit eine bestimmte Datenverarbeitung ein Risiko für die Rechte und Freiheiten natürlicher Personen darstellt (&amp;quot;risikobasierter Ansatz&amp;quot;), wonach sich letztendlich die Strenge der von ihr vorgeschriebenen Verpflichtungen bemisst.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Der AI Act erkennt das Primat der DSGVO in Art 2 Abs 7 an und statuiert, dass er deren Anwendungsbereich unberührt lässt. Somit gehen im Falle der Verarbeitung personenbezogener Daten durch eine KI-Anwendung die Regelungen der DSGVO grundsätzlich vor, während der AI Act dem ergänzend eine produktsicherheitsrechtliche Komponente beifügt, die während der Entwicklung und des Einsatzes von KI zu beachten ist.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 33, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Überschneidungen beider Rechtsakte ergeben sich bspw, sobald ein KI-Modell mit personenbezogenen Daten &#039;&#039;&#039;trainiert&#039;&#039;&#039; werden soll. In diesem Fall braucht es eine Rechtsgrundlage nach Art 6 Abs 1 DSGVO (und ggf Art 9 DSGVO), wobei hier am ehesten die berechtigten Interessen des Verantwortlichen nach lit f leg cit infrage kommen. So hat sich bspw der Facebook-Mutterkonzern Meta auf berechtigte Interessen berufen, um sein Sprachmodell &amp;quot;LLaMA&amp;quot; hinter seiner &amp;quot;Meta AI&amp;quot; mit Nutzerdaten zu trainieren. Dagegen erhob die Verbraucherschutzzentrale NRW Antrag auf Erlass einer einstweiligen Verfügung, letztendlich entschied jedoch das OLG Köln in seinem Beschluss vom 23.05.2025 (15 UKl 2/25), dass sich Meta für das KI-Training mit Nutzerdaten auf berechtigte Interessen stützen könne.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://www.verbraucherzentrale.nrw/urteilsdatenbank/digitale-welt/olg-koeln-weist-eilantrag-der-verbraucherzentrale-nrw-gegen-meta-wegen-kitraining-zurueck-108065.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Umgekehrt ist laut Art 35 DSGVO immer dann eine Datenschutz-Folgenabschätzung durchzuführen, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat, insbesondere bei Verwendung neuer Technologien. Darunter fallen gemäß §2 Abs 2 Z 4 DSFA-V&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Verordnung der Datenschutzbehörde über Verarbeitungsvorgänge, für die eine Datenschutz-Folgenabschätzung durchzuführen ist (DSFA-V), BGBl. II Nr. 278/2018.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;insbesondere Datenverarbeitung unter Einsatz von künstlicher Intelligenz, welcher jedenfalls die Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung nach sich zieht. Somit löst auch der Einsatz von KI unter gewissen Voraussetzungen datenschutzrechtliche Pflichten aus.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: Digital Services Act (DSA) vs AI Act ===&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der DSA legt einheitliche Regeln für Vermittlungsdienste mit dem Ziel fest, ein vertrauenswürdiges, (rechts-)sicheres und vorhersehbares Online-Umfeld für Verbraucher und Unternehmen durch eine harmonisierte Plattformregulierung zu gewährleisten. Ebenso zielt das Regelwerk auf den Schutz sowie die Gewährleistung einer effektiven Grundrechtsausübung und normiert umfassende Verpflichtungen für Anbieter von Online-Diensten in Form eines abgestuften Regelungsansatzes, der die unterschiedlichen Compliance-Pflichten an die Art und Größe der jeweiligen Online-Dienste knüpft. Dabei kennt der DSA folgende Anbieterkategorien: Anbieter von allgemeinen Vermittlungsdiensten, Hostingdiensten, Online- sowie Transaktionsplattformen und sehr großen Online-Plattformen (VLOPs) und -Suchmaschinen (VLOSEs). Überschneidungen mit dem AI Act können sich auf zweierlei Weise ergeben: Einerseits können KI-Anwendungen zur Generierung oder Manipulation von Inhalten verwendet werden, die dann über Vermittlungsdienste geteilt werden. Andererseits können KI-Systeme das Kernangebot des Diensteanbieters ausmachen, in der Inhaltsmoderation eingesetzt werden oder Produkt- bzw Service-Empfehlungen auf Basis von Nutzerverhalten (&amp;quot;Empfehlungsalgorithmen&amp;quot;) schalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 48, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Allgemeine Synergien sind dem [[Digital Services Act (DSA)|Eintrag über den DSA]] zu entnehmen.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
* Weiters kann es bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act in Bezug auf die notwendige Risikoanalyse kommen. &amp;lt;mark&amp;gt;So fordern die Artikel 34 und 35 DSA die Analyse jener potenzieller systemischer Risiken, die sich durch das Design, die Funktion oder die Nutzung ihrer Services ergeben, insbesondere im Zusammenhang mit algorithmischen Systemen oder Systemen zur Inhaltsmoderation. Demgegenüber legt der AI Act in Art 17 die Verpflichtung für Anbieter von Hochrisiko-KI-Systemen zur Etablierung eines Risikomanagementsystems gemäß Art 9 AI Act fest und sieht spezielle Anforderungen für Anbieter von GPAI-Modellen mit systemischem Risiko vor (Art 55 Abs 1 lit b AI Act).&amp;lt;/mark&amp;gt; Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Im Fall von Anbietern von Hochrisiko-KI-Systemen sieht der AI Act sogar explizit die Möglichkeit vor, Risikomanagementprozesse nach anderen unionsrechtlichen Bestimmungen mit jenen nach dem AI Act zu kombinieren (vgl Art 9 Abs 10 AI Act).&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 49, &amp;lt;nowiki&amp;gt;https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Art 86 AI Act normierte Recht auf Erläuterung] besteht potentiell eine Subsidiarität gegenüber anderen Auskunftsansprüchen, insb der Auskunftspflicht nach Art 15 Abs 1 lit h DSGVO iVm Art 22 DSGVO. &amp;lt;mark&amp;gt;Demnach steht Personen, die von einer automatisierten Entscheidungsfindung im Einzelfall einschließlich Profiling betroffen sind, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie ähnlich erheblich beeinträchtigt, das Recht zu, neben allgemeinen Informationen über die Verarbeitung ihrer personenbezogenen Daten aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und Auswirkungen einer derartigen Verarbeitung zu verlangen. Inhaltlich&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;richtet sich der Auskunftsanspruch nach Art 15 Abs 1 lit h DSGVO gemäß rezenter EuGH-Judikatur insb auf die Erläuterung des Verfahrens und der Grundsätze, die bei der automatisierten Verarbeitung der personenbezogenen Daten der betroffenen Person zur Anwendung kamen und zu dem bestimmten Ergebnis geführt haben.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117, Rz 58. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Frage nach einer potenziellen Subsidiarität von Art 86 AI Act gegenüber den entsprechenden datenschutzrechtlichen Vorschriften hängt von unterschiedlichen Fallszenarien ab, in denen die jeweils verwendeten Technologien und verarbeiteten Datenkategorien zu unterschiedlichen Ergebnissen führen können:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 15 Abs 1 lit h iVm Art 22 DSGVO&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsfolge&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Hochrisiko-KI-Einsatz in Entscheidungsfindungsprozessen, in denen entweder keine personenbezogenen Daten gemäß Art 4 Z 1 DSGVO verarbeitet werden (zB Verarbeitung lediglich aggregierter Daten) oder keine vollautomatisierte Entscheidung iSd Art 22 DSGVO getroffen wird (etwa weil ein Mensch maßgeblich an der Entscheidungsfindung beteiligt ist)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Das Recht auf Erklärung steht vollumfänglich wie in Art 86 Abs 1 dargelegt zu (bei Vorliegen der übrigen Voraussetzungen). Der betroffenen Person sind somit klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess und zu den wichtigsten Elementen der getroffenen Entscheidung zu übermitteln, wobei die Erklärung einzelfallbezogen und auf das konkrete Ergebnis gerichtet sein muss. Der Anwendungsbereich von Art 15 (Abs 1 lit h iVm Art 22) DSGVO ist hingegen nicht eröffnet. Das Recht, die Entscheidung anzufechten, steht - zumindest gemäß AI Act - nicht zu.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Es findet eine vollautomatisierte Entscheidungsfindung auf Basis der Verarbeitung personenbezogener Daten statt, allerdings ohne Beteiligung eines Hochrisiko-KI-Systems iSd Art 6 Abs 2 iVm Anhang III AI Act (bspw wird die Entscheidung durch einen herkömmlichen Algorithmus getroffen, der Anforderungen an ein KI-System nach Art 3 Z 1 AI Act nicht erfüllt oder das KI-System fällt nicht in den Hochrisiko-KI-Bereich)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Auskunftsanspruch gemäß Art 15 (Abs 1 lit h iVm Art 22) DSGVO steht bei Vorliegen der übrigen Voraussetzungen zu, während das Recht auf Erklärung nach Art 86 AI Act keine Anwendung findet. Es sind der betroffenen Person somit Informationen über die involvierte Logik, Tragweite und Auswirkungen der Entscheidung zu übermitteln, wobei Informationen über die Rolle des eingesetzten Systems nicht darunter fallen. Im Unterschied zu Art 86 AI Act ist in Bezug auf Art 15 Abs 1 lit h DSGVO jedoch noch unklar, ob auch eine Verpflichtung zu einer einzelfallbezogenen Begründung der konkret erzielten Ergebnisse besteht, die über eine abstrakte/allgemeine Erklärung hinausgeht.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl etwa das EuGH-Urteil in der RS Dun &amp;amp; Bradstreet, welches stärker auf das lokale Element, dh die Einzelentscheidung, abzustellen scheint (EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117). MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 71, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Art 22 Abs 3 DSGVO enthält jedoch im Gegensatz zum AI Act das Recht, die Entscheidung anzufechten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Verarbeitung personenbezogener Daten im Rahmen der Entscheidungsfindung, Einsatz eines Hochrisiko-KI-Systems, vollautomatisierte Entscheidungsfindung&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Anspruch nach Art 86 AI Act tritt ergänzend zu jenem nach der DSGVO hinzu und richtet sich auf jene Informationen, die nach Art 15 DSGVO nicht zu beauskunften sind (bspw die Rolle des KI-Systems im Entscheidungsprozess sowie jedenfalls einzelfallbezogene, lokale Erklärungen). Es handelt sich somit um eine sog &amp;quot;Lückenfüller-Position&amp;quot; von Art 86 AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Ansicht folgend und mwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 96 ff, &amp;lt;nowiki&amp;gt;https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;mark&amp;gt;In der Regel werden Betroffene in der Praxis wohl beide Ansprüche gleichzeitig geltend machen. Dies ist allerdings nur möglich, sofern beide Ansprüche auch gegenüber der selben Person bzw Einrichtung geltend zu machen sind. Denn während das Recht auf Erklärung nach Art 86 AI Act gegen den Betreiber des KI-Systems zusteht, ist der Auskunftsanspruch gemäß Art 15 Abs 1 lit h DSGVO gegen jene Person oder Stelle zu richten, welche die Entscheidung getroffen hat (welche zwar meist aber nicht zwangsläufig mit der Person des datenschutzrechtlich Verantwortlichen iSd Art 4 Z 7 DSGVO ident sein wird&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Argumentation folgend: &#039;&#039;Ziegenhorn,&#039;&#039; Wer ist Adressat des Art. 22 DSGVO? Zur Abgrenzung des Entscheiders vom Verantwortlichen, CR 2024, 586.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;). Die unterschiedlichen Rollen nach AI Act und DSGVO können somit zusammenfallen, müssen dies allerdings nicht, wodurch sich unterschiedliche Verpflichtungen für die beteiligten Akteure ergeben können.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== Produkthaftungsrichtlinie neu und Vorschlag für eine AI Liability Directive [zurückgezogen] ===&lt;br /&gt;
&lt;br /&gt;
* Die Produkthaftungsrichtlinie neu (PHRL neu) und insbesondere &amp;lt;mark&amp;gt;der (zurückgezogene)&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Commission work programme 2025, (11.2.2025) COM(2025) 45 final, 26.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Vorschlag für eine&amp;lt;/mark&amp;gt; AI Liability Directive (AILD) nehmen direkt auf den AI Act Bezug und verweisen bei der Begriffsverwendung häufig auf diesen. Die AILD kann somit nicht ohne den Kontext des AI Act verstanden werden. So sollten die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD bilden ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]). &lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act überträgt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Begleit- bzw Durchführungsgesetz, das die Sanktionen konkretisiert.  &amp;lt;mark&amp;gt;Auch die notifizierende(n) Behörde(n) und die Marktüberwachungsbehörde(n) (Art 70 AI Act) wurden in Österreich noch nicht benannt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 5: Transkriptionstool im Rahmen der Rechtspflege&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|&amp;lt;mark&amp;gt;Im Rahmen des Verfassens von Urteilen oder Protokollen wird das gesprochene Wort (Diktat des Entscheidungsorgans) digital aufgezeichnet und anschließend transkribiert. Das System ist in der Lage, mithilfe KI-gestützter Spracherkennung die jeweils Sprechenden (Speaker Diarisation) sowie juristische Begriffe und Redewendungen zu erkennen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Transkriptionssoftware liegt ein Sprachmodell (LLM) zugrunde, das auf maschinellem Lernen basiert. Dieses wird durch ein User-Interface praktisch nutzbar gemacht und stellt somit ein KI-System iSd AI Act dar.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&amp;lt;mark&amp;gt;Der Einsatz von KI in der Rechtspflege zu gewissen Zwecken kann in den Hochrisiko-KI-Bereich gemäß Art 6 Abs 2 iVm Anhang III Nr 8 lit a AI Act fallen. Solche Systeme sind jedoch nicht als hochriskant einzustufen, sofern sie für rein begleitende administrative Tätigkeiten bestimmt sind, worunter jedenfalls Spracherkennungsprogramme für das Diktieren von Entscheidungen fallen können (ErwGr 61). In einem nächsten Schritt ist die Ausnahmeregelung des Art 6 Abs 3 AI Act zu prüfen, wonach das System höchstwahrscheinlich gemäß lit a leg cit aus dem Hochrisiko-KI-Bereich ausgenommen ist, da es rein für Protokollierungszwecke eingesetzt wird und damit nur eine eng gefasste Verfahrensaufgabe übernimmt. Ebenso ist denkbar, gemäß lit d leg cit aus dem Hochrisiko-KI-Bereich ausgenommen zu sein, sofern das System lediglich eine vorbereitende Aufgabe für die Urteilserstellung übernimmt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Bejaht man hingegen das Vorliegen von Hochrisiko-KI, so treffen deren Anbieter die Pflichten der Art 8 ff AI Act und den Betreiber insbesondere die Pflichten nach Art 26 und 27 AI Act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Sofern es sich um ein KI-Modell mit allgemeinem Verwendungszweck (mit systemischem Risiko) handelt, treffen den Anbieter diesbezüglich Verpflichtungen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Unabhängig von der Risikoeinstufung des Modells bzw Systems sind darüber hinaus die Transparenzpflichten nach Art 50 AI Act zu beachten sowie ein ausreichendes Maß an KI-Kompetenz unter den Beschäftigten, die mit dem Transkriptionstool arbeiten, herzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 6: KI-System zur Filterung und Priorisierung von Bewerbungen&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Sachverhalt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen möchte eine neue Stelle besetzen und erhält unzählige Bewerbungen. Daher entschließt es sich, ein KI-basiertes System einzusetzen, das Bewerbungen filtert und mit einem Einstufungswert versieht, wodurch die Bewerbungen priorisiert werden. Die zuständigen HR-Mitarbeiter*innen weichen nicht mehr von dem Wert ab und vergeben die Stelle schließlich an jene Person, die den höchsten Einstufungswert erhalten hat.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!&amp;lt;mark&amp;gt;Einordnung AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Sofern es sich bei der Anwendung um ein KI-System nach Art 3 Z 1 AI Act handelt, ist der Anwendungsbereich des AI Act grundsätzlich eröffnet. Das Unternehmen ist jedenfalls als dessen Betreiber zu qualifizieren, da es das System in eigener Verantwortung zu beruflichen Zwecken einsetzt. Sofern es das KI-System auch selbst entwickelt / entwickeln lässt und es unter eigener Marke bzw eigenem Namen in Betrieb nimmt, ist es sogar Anbieter.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]].&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Darüber hinaus stellt das System ein &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System nach Art 6 Abs 2 iVm Anhang III Punkt 4a AI Act dar, da es bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet wird, um Bewerbungen zu filtern und Bewerber zu bewerten. Eine Ausnahme nach Art 6 Abs 3 AI Act vom Hochrisiko-KI-Bereich liegt nicht vor, da das KI-System das Ergebnis der Entscheidungsfindung wesentlich beeinflusst (von dem KI-generierten Eignungswert wird nicht mehr abgewichen). Je nach Rolle treffen das Unternehmen nun weitereichende Verpflichtungen. In den meisten Fällen wird das Unternehmen wohl als Betreiber zu klassifizieren sein, weshalb es unter anderem die Betreiberpflichten nach Art 26 AI Act zu erfüllen und unter gewissen Voraussetzungen eine Grundrechte-Folgenabschätzung nach Art 27 AI Act durchzuführen hat. Art 26 Abs 7 sieht grundsätzlich auch die spezielle Betreiberpflicht vor, vor Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz die Arbeitnehmervertreter und betroffenen Arbeitnehmer über den KI-Einsatz zu informieren. Inwieweit diese Verpflichtung auch gegenüber Bewerbern gilt, die streng genommen (noch) keine Arbeitnehmer sind, ist fraglich und wird wohl zu verneinen sind. Diese vermeintliche Rechtsschutzlücke wird jedoch ohnehin wieder durch die Verpflichtung gemäß Art 26 Abs 11 AI Act ausgeglichen, von Hochrisiko-KI-Entscheidungen betroffene Personen über diesen KI-Einsatz zu informieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= &amp;lt;mark&amp;gt;Digitaler Omnibus&amp;lt;/mark&amp;gt; =&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 19. November 2025 stellte die Europäische Kommission das sogenannte &#039;&#039;&#039;„Digital Omnibus Package“&#039;&#039;&#039; vor, ein Legislativpaket mit dem Ziel, den digitalen Rechtsrahmen der EU zu vereinfachen.&amp;lt;ref name=&amp;quot;:2&amp;quot;&amp;gt;Vgl https://ec.europa.eu/commission/presscorner/detail/de/ip_25_2718. &amp;lt;/ref&amp;gt; Ziel der Maßnahme ist, Verwaltungs- und Umsetzungskosten zu senken, Rechtsklarheit zu erhöhen und insbesondere kleine und mittlere Unternehmen (KMU) zu entlasten, da Unternehmen zunehmend Schwierigkeiten bei der Umsetzung und Koordination von Vorgaben wie etwa dem AI Act sehen. Das Paket umfasst Änderungen und Anpassungen unterschiedlicher Rechtsrahmen, so auch einige Bestimmungen des AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Inhaltliche Änderungen betreffen einerseits die Verpflichtung zur Sicherstellung von KI-Kompetenz (Art 4), welche nunmehr nicht Unternehmen bzw. Einrichtungen selbst treffen soll, sondern die Kommission und die Mitgliedstaaten sind dazu angehalten, Anbieter und Betreiber zur Sicherstellung eines angemessenen Maßes an KI-Kompetenz zu unterstützen. Ebenso stellt die Kommission eine Verzögerung der Anwendbarkeit der Hochrisiko-KI-Bestimmungen in Aussicht, welche mit 2. August 2026 bzw 2. August 2027 Anwendung erlangen sollten. Grund ist das Fehlen von entsprechenden Standards, die eigentlich bis August 2025 zu setzen waren und ohne die laut Kommission die Einhaltung der entsprechenden AI Act-Bestimmungen nicht möglich sei. Die Anwendbarkeit der Hochrisiko-KI-Bestimmungen soll sich um bis zu maximal 16 Monate verzögern, wobei die Vorschriften Geltung erlangen, sobald die Kommission die Verfügbarkeit der erforderlichen Standards und Unterstützungsinstrumente bestätigt.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:2&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus enthält der Vorschlag einen neuen Art 4a, der die Verarbeitung sensibler personenbezogener Daten zur Erkennung und Minderung von Bias unter gewissen Voraussetzungen ermöglicht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Kommissionsleitlinien und sonstige Materialen/Verhaltenskodizes&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zur Definition eines Systems der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 6. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118628&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 4. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118661&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Living Repository zur Förderung des Lernens und des Austausches über KI-Kompetenz vom 04. Februar 2025 (mit Update von April 2025): https://ec.europa.eu/newsroom/dae/redirection/document/112203&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Praxisleitfaden für KI-Modelle mit allgemeinem Verwendungszweck (General-Purpose AI Code of Practice) vom 10. Juli 2025: https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Transparenz: https://ec.europa.eu/newsroom/dae/redirection/document/118120&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Urheberrecht: https://ec.europa.eu/newsroom/dae/redirection/document/118115&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Sicherheit: https://ec.europa.eu/newsroom/dae/redirection/document/118119&amp;lt;/mark&amp;gt;  &lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act vom 18. Juli 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118340&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien und Meldevorlagen zur Meldung schwerwiegender KI-Vorfälle gemäß Art 73 AI Act (&#039;&#039;Entwurf, noch in Ausarbeitung&#039;&#039;): https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; AI Act Service Desk. Frequently Asked Questions (FAQs): https://ai-act-service-desk.ec.europa.eu/en/faq.&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Whistleblower Tool for AI Act, https://digital-strategy.ec.europa.eu/en/news/commission-launches-whistleblower-tool-ai-act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act)&amp;lt;mark&amp;gt;&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024) &amp;lt;mark&amp;gt;(2. Auflage 2026, iE)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schefzig/Kilian,&#039;&#039; BeckOK KI-Recht&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Hochrangige Expertengruppe für Künstliche Intelligenz,&#039;&#039; Ethik-Leitlinien für eine vertrauenswürdige KI (2019), https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425&amp;lt;/mark&amp;gt;&lt;br /&gt;
* [https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0 Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA)]&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4315</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4315"/>
		<updated>2025-11-27T10:11:24Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Praxisleitfäden (codes of practice) (Art 56 AI Act) */ Rolle des nachgelagerten Modifizierers&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. Februar 2025 (schrittweise)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen von KI-Systemen &lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD, &amp;lt;mark&amp;gt;von der Kommission zurückgezogen&amp;lt;/mark&amp;gt;)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modelle (general purpose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB Verarbeitung zur Vermeidung von Verzerrungen, Art 10), regulatory sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (zB Anbieter- und Betreiberpflichten, Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz (eingeschränkt); reine Forschungszwecke &lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) gelten seit 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (zB Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|Gewährleistung von Transparenz und Verantwortlichkeit&lt;br /&gt;
|Pflichten für Betreiber (professionelle Nutzer*innen) und Anbieter&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (zB Chatbots, Deepfakes)&lt;br /&gt;
|Informationspflichten nach der DSGVO&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
&amp;lt;mark&amp;gt;Der AI Act ist die erste EU-weite, sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) und&amp;lt;/mark&amp;gt; folgt dabei primär einem produktsicherheitsrechtlichem Ansatz, dessen vorrangiges Regulierungsziel die Sicherheit von KI-Systemen und Modellen ist. &amp;lt;mark&amp;gt;Damit ist er Teil des sog [https://single-market-economy.ec.europa.eu/single-market/goods/new-legislative-framework_en?prefLang=de &amp;quot;New Legislative Framework&amp;quot;] (NLF), einem unionsrechtlichen Maßnahmenpaket zur Produktregulierung, das auf die Verbesserung der Marktüberwachung abzielt und sich durch einheitliche Kernelemente auszeichnet (zB Konformitätsbewertungsverfahren, Selbstregulierung, Standards und einheitliche Anforderungen). Im Rahmen des Gesetzgebungsprozesses wurde der Rechtsakt - insbesondere auf Bestreben des Europäischen Parlaments - um menschenrechtliche Aspekte und Betroffenenrechte erweitert, weshalb der AI Act mittlerweile deutlich über reines Produktsicherheitsrecht hinausgeht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modelle&#039;&#039;&#039; bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot;.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei handelt es sich um &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;ableitet&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot;&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe Art 3 Z 1 AI Act. Hervorhebungen nicht im Original. &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;abzuleiten&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Hingegen soll sich nach ErwGr 12 der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen [...]&amp;quot;, womit auf eine Abgrenzung von KI von herkömmlichen Softwarelösungen und Programmierungsansätzen abgezielt wird.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zusammenfassend möchte der EU-Gesetzgeber mit dieser Definition einerseits Rechtssicherheit schaffen, allerdings immer noch Raum für technologischen Fortschritt lassen, um den Anwendungsbereich des AI Act nicht von Vornherein vor potenziellen künftigen technologischen Entwicklungen zu verschließen.&amp;lt;/mark&amp;gt; Dennoch wurde die Definition als zu vage und unbestimmt empfunden. So wurden diverse Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Um den Begriff des KI-Systems also zu konkretisieren und Unsicherheiten zu beseitigen, sollte die Kommission gemäß Art 96 Abs 1 lit f AI Act Leitlinien vorlegen, und damit eine einheitliche Anwendung des Regelwerks fördern sowie Rechtsicherheit gewährleisten&amp;lt;/mark&amp;gt;.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle, &amp;lt;mark&amp;gt;einfache Datenverarbeitungssysteme, auf klassische Heuristik gestützte Systeme, einfache Vorhersagesysteme etc.&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Eine Positiv-Liste, welche Systeme jedenfalls unter den KI-Begriff fallen, enthalten die Leitlinien allerdings nicht. Sie orientieren sich vielmehr an den 7 Kernelementen der KI-Definition gemäß Art 3 Z 1 AI Act. Es wird überdies betont, dass nicht alle Elemente kontinuierlich in den beiden Hauptphasen des Lebenszyklus von KI (&amp;quot;building phase&amp;quot; / &amp;quot;pre-deployment&amp;quot; oder &amp;quot;use phase&amp;quot; / &amp;quot;post-deployment&amp;quot;) vorhanden sein müssen und, dass sich die Leitlinien kontinuierlich weiterentwickeln sollen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Folgende Konkretisierungen der KI-Definition und Beispiele sind den Leitlinien zu entnehmen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Elemente der KI-Definition&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Erläuterungen in den Leitlinien der EU-Kommission&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Maschinengestütztes System&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;KI benötigt Hardware- und Softwarekomponenten&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB eine Hardwareinfrastruktur wie processing units, Speicher, Input/Output-Schnittstellen und Software (Code, Programme etc.)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;autonomer Betrieb (in unterschiedlichem Grade)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erfordert einen gewissen Grad an Unabhängigkeit von menschlichem Eingreifen, wobei Systeme, die vollständig manuelle menschliche Interaktion erfordern, nicht darunter fallen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Umfasst sind Systeme, die zwar einen manuellen Input erfordern, aber von selbst einen Output generieren (zB Chatbots)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anpassungsfähigkeit nach Betriebsaufnahme (optional)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Selbstlernfähigkeiten (nicht zwingend erforderlich); darunter versteht man, ob sich das Verhalten des Systems während seiner Verwendung anpassen oder verändern kann (zB automatisches Lernen, wie Muster oder Beziehungen zwischen Daten erkannt werden können).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungsfähigkeit&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Inferenz, Schlüsseleigenschaft; dient der Abgrenzung von KI-Systemen von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen. Nicht umfasst sind hingegen Systeme, die nur von Menschen programmierten Regeln folgen und automatisiert Operationen ausführen. Die Ableitungsfähigkeit bedeutet daher die Erlernung allgemeiner Konzepte statt fester, vorprogrammierter Regeln.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Bsp: maschinelles Lernen, logik- und wissensgestützte Systeme (Schlussfolgerungen mittels Deduktion oder Induktion)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitung aus Eingaben für implizite oder explizite Ziele&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungen müssen nach entweder:&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;expliziten Zielen (klar definierte, direkt in den Code programmierte Ziele, Optimierung von Kostenfunktionen, Wahrscheinlichkeitsberechnung) oder&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;impliziten Zielen (Ableitung des Ziels aus dem Verhalten oder den dahinterstehenden Annahmen des Systems; bspw Trainingsdaten oder Interaktion des Systems mit Umwelt) erfolgen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erzeugung von Ausgaben&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ausgabe-Arten umfassen unter anderem&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Vorhersagen (Schätzungen unbekannter Werte basierend auf komplexen Datenmustern)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Inhalte (Texte, Bilder, Videos oder Musik)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Empfehlungen (Vorschläge für Maßnahmen, Produkte oder Dienstleistungen, die hochgradig personalisiert sind und Massendaten nutzen).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Entscheidungen (Vollautomatisierte Schlussfolgerungen oder Auswahlentscheidungen, die Prozesse automatisieren, die üblicherweise menschlichem Urteilsvermögen vorbehalten sind)&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;zB die generierten Inhalte von Chatbots, Produktvorschläge, Echtzeit-Vorhersagen, Auswahlentscheidungen&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Beeinflussung physischer oder virtueller Umgebungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Frage, ob das System einen aktiven Einfluss auf die Umgebungen hat, in denen es eingesetzt wird, sei es auf materielle physische Objekte oder auf digitale Räume&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB Roboterarm, Software-Ökosysteme, Datenströme&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}  &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI-Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit aus, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). &amp;lt;mark&amp;gt;Man kann hier den Vergleich zu einem KFZ ziehen, wobei das KI-Modell den Motor darstellt, der die eigentliche &amp;quot;Arbeit&amp;quot; leistet. Um jedoch fahrtüchtig zu sein, bedarf es nicht nur eines Motors, sondern das Fahrzeug benötigt darüber hinaus eine Karosserie, Räder, ein Lenkrad etc. Das wiederum bezeichnet das KI-System, welches das Modell erst durch seine Schnittstellen, seine Benutzeroberfläche etc. &amp;quot;fahrtüchtig&amp;quot; und damit nutzbar macht.&amp;lt;/mark&amp;gt; Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen &amp;quot;Nutzer&amp;quot;) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder sich in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollen:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität), unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act trat am &#039;&#039;&#039;1. August 2024&#039;&#039;&#039; in Kraft und wird generell am &#039;&#039;&#039;2. August 2026&#039;&#039;&#039; anwendbar (Art 113 AI Act). Gestaffelt erlangen einige Bestimmungen jedoch bereits vorab oder danach Geltung:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab &#039;&#039;&#039;2. August 2025&#039;&#039;&#039;&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem &#039;&#039;&#039;2. August 2027&#039;&#039;&#039;&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 111 Abs 2 AI Act enthält dabei jedoch eine sog „grandfathering“-Klausel, nach welcher der AI Act für Betreiber von Hochrisiko-KI-Systemen, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, nur dann gilt, wenn diese Systeme danach in ihrer Konzeption erheblich verändert wurden.&amp;lt;ref&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 23, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Verpflichtung zur Maßnahmenergreifung gilt für Betreiber und Anbieter gleichermaßen und ist ferner unabhängig von der Risikoklasse der infragestehenden KI-Anwendung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Unter KI-Kompetenz versteht man grundsätzlich &amp;quot;die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.&amp;quot;&amp;lt;ref&amp;gt;Vgl die Definition in Art 3 Z 56 AI Act.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dies umfasst die notwendigen Kompetenzen, um fundierte Entscheidungen über KI-Systeme zu treffen, technische Elemente zu verstehen sowie korrekt anzuwenden, die Auswirkungen von KI-basierten Entscheidungen auf Betroffene zu verstehen und KI-generierte Ausgaben angemessen zu interpretieren.&amp;lt;ref name=&amp;quot;:1&amp;quot;&amp;gt;Vgl ErwGr 20 AI Act. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dazu gehört auch, den einschlägigen Akteuren der KI-Wertschöpfungskette jene erforderlichen Kenntnisse zu vermitteln, um die Einhaltung und Durchsetzung der Vorschriften des AI Act zu gewährleisten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Weitere Konkretisierungen oder zwingende Mindestvorgaben für die Sicherstellung der KI-Kompetenz enthält der AI Act allerdings nicht und betont sogar, dass die Konzepte der KI-Kompetenz in Bezug auf den jeweiligen Kontext unterschiedlich sein können.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:1&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Die EU-Kommission hat daher ein [https://digital-strategy.ec.europa.eu/de/library/living-repository-foster-learning-and-exchange-ai-literacy &amp;quot;Living Repository&amp;quot;] angelegt, in dem Unternehmen ihre Praktiken in Bezug auf KI-Kompetenz eingetragen haben. Das Repository wird laufend ergänzt, ist jedoch nicht rechtsverbindlich. Weiters bilden die darin enthaltenen Praktiken keine Garantie zur Compliance mit Art 4 AI Act, allerdings stellen sie eine gute Orientierung dar, welche Maßnahmen zur Sicherstellung von KI-Kompetenz in unterschiedlichen Branchen bereits ergriffen werden. Häufig genannte Praktiken umfassen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne eLearning-Plattformen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne Weiterbildungen und Trainingsprogramme,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Kenntnis-basierte Schulungen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Video-/Podcast-Reihen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;spielebasierte Trainings,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Erstellung von KI-Verhaltenskodizes und Risikobewertungssystemen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;eigene Chatbots zum Training im Umgang mit Sprachmodellen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Denkbar ist überdies die Teilnahme an externen Fortbildungen und Schulungen, die Entwicklung von internen Richtlinien (&amp;quot;KI-Guidelines&amp;quot;) oder die Schaffung von sog &amp;quot;KI-Beauftragten&amp;quot; in der Organisation. Ob die Schulungsmaßnahmen fortlaufend zu erfolgen haben, ist rechtlich nicht vorgeschrieben, wird allerdings anzunehmen sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Dieser Ansicht folgend: &#039;&#039;Siglmüller&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 4 KI-Kompetenz Rz 5.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Ebensowenig sind die genauen Inhalte der Kompetenzvermittlungsmaßnahmen definiert. Es kann jedenfalls davon ausgegangen werden, dass diese zielgruppengerecht und zugeschnitten auf unterschiedliche Bedürfnisse erfolgen sollten. Weiters werden sie sich bei manchen Branchen, KI-Einsatzgebieten oder Personengruppen nicht lediglich auf rechtliche oder technische Anforderungen beschränken, sondern ebenso soziale und ethische Komponenten umfassen. Bei der Entwicklung und Nutzung von GPAI-Modellen wird beispielsweise die Vermittlung von Kenntnissen im Zusammenhang mit Urheberrecht, Datenschutz, &amp;quot;Bias&amp;quot; (Verzerrungen) oder &amp;quot;Halluzinationen&amp;quot; (erfundene falsche Ausgaben) sinnvoll sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger,&#039;&#039; Wissenskultur im KI-Zeitalter – eine Auseinandersetzung mit der KI-Kompetenz nach Art 4 AI Act und ihren praktischen Implikationen, ZIIR 2025, 250.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die EU-Kommission hat darüber hinaus eine [https://digital-strategy.ec.europa.eu/de/faqs/ai-literacy-questions-answers &amp;quot;FAQ-Seite&amp;quot;] mit Fragen und Antworten zur KI-Kompetenz angelegt, um einen besseren Überblick über die Anforderungen zu geben.&amp;lt;/mark&amp;gt;    &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten, &amp;lt;mark&amp;gt;da sie besonders schädlich sind, enormes Missbrauchspotenzial aufweisen und im Widerspruch zu europäischen Grundrechten und Grundfreiheiten stehen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 28 AI Act.&amp;lt;/mark&amp;gt; MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt; (Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt; Folgende Praktiken sind davon umfasst: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Praktik&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Nicht erfasste Praktiken&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsgrundlage&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Unterschwellige Beeinflussung außerhalb des Bewusstseins oder manipulative/täuschende Techniken&#039;&#039;&#039;, wodurch die freie Entscheidungsfähigkeit von Personen beeinträchtigt wird und ein Schaden mit hinreichender Wahrscheinlichkeit eintritt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ableitung sensibler Informationen aus Gehirnen von Nutzern über Maschine-Gehirn-Schnittstellen&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 29 AI Act sowie Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 66.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Chatbots, die zur Selbstverletzung verleiten&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 87.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Unterschwellige visuelle oder auditive Reize bzw generelle sensorische Manipulation&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 65 und 68.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erlaubt ist hingegen der Einsatz eines KI-Systems, das personalisierte Empfehlungen auf der Grundlage transparenter Algorithmen und Nutzerpräferenzen verwendet, und sich nicht absichtlich manipulativer Techniken bedient.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 128.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit a&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Ausnutzen der Vulnerabilität/Schutzbedürftigkeit&#039;&#039;&#039; aufgrund des Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine KI-Begleit-App, die durch gewisse Sprachmuster und Verhaltensweisen gezielt emotionale Abhängigkeiten und ungesunde Bindungen bei älteren Menschen erzeugt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-gestütztes Spielzeug, das Kinder zu riskanten Herausforderungen ermutigt oder durch süchtig machende Techniken zu übermäßigem Spielen anregt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte &amp;quot;Grooming-Praktiken&amp;quot; (gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht), um Mädchen mit Behinderung im Internet anzusprechen und zu manipulieren&amp;lt;ref&amp;gt;Vgl Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 88 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Kinder beim Lernen einer Fremdsprache durch den Einsatz unterschwelliger Techniken unterstützen soll, sofern sie transparent arbeitet und die Nutzerautonomie wahrt.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Benommenheit und Ermüdung bei Fahrern erkennen und sie im Einklang mit den Sicherheitsvorschriften mit Warnmeldungen auf Ruhepausen hinweisen, gelten ebenso nicht als Ausnutzung von Vulnerabilitäten.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 130ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit b&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social scoring&#039;&#039;&#039; (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Verwendung eines KI-Systems zur Schätzung der Betrugswahrscheinlichkeit bei Empfängern von Haushaltszulagen durch das Sozialamt, das sich auf Merkmale stützt, die in sozialen Kontexten ohne offensichtlichen Zusammenhang mit oder Relevanz für die Bewertung von Betrug erhoben oder abgeleitet werden, wie zB ein Ehepartner mit einer bestimmten Staatsangehörigkeit oder ethnischen Herkunft, der Besitz eines Internetanschlusses, das Verhalten auf sozialen Plattformen oder die Leistung am Arbeitsplatz etc.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems durch eine öffentliche Stelle, um für die Früherkennung gefährdeter Kinder anhand von Kriterien wie der psychischen Gesundheit und Arbeitslosigkeit der Eltern, aber auch anhand von aus verschiedenen Kontexten abgeleiteten Informationen über das soziale Verhalten der Eltern Familienprofile zu erstellen. Auf der Grundlage der erzielten Bewertung werden Familien für Kontrollen ausgewählt und als „gefährdet“ geltende Kinder werden aus ihren Familien genommen, unter anderem auch in Fällen geringfügiger Übertretungen seitens der Eltern, wie zB gelegentlich verpasste Arzttermine oder verhängte Verkehrsstrafen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine Regierung führt ein umfassendes KI-gestütztes System ein, das die Bürgerinnen und Bürger auf der Grundlage ihres Verhaltens in verschiedenen Lebensbereichen wie sozialen Interaktionen, Online-Aktivitäten, Kaufgewohnheiten und Pünktlichkeit bei der Begleichung von Rechnungen überwacht und einstuft. Menschen mit einer niedrigeren Bewertung müssen damit rechnen, dass sie eingeschränkten Zugang zu öffentlichen Dienstleistungen erhalten, höhere Zinsen auf Kredite zahlen und auf Reisen und bei der Suche nach einer Wohnung oder sogar einem Arbeitsplatz Schwierigkeiten haben.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 166 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Bonitätsprüfung natürlicher Personen auf Basis persönlicher Merkmale wie dem Einkommen vor Vergabe eines Kredits.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basierte Erhebung von Geschwindigkeitsüberschreitungen oder hochriskantem Fahrverhalten, die zur Erhöhung der KFZ-Versicherungsprämien führen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte gezielte kommerzielle Werbung fällt nicht in den Anwendungsbereich, wenn sie auf relevanten Daten (z. B. Nutzerpräferenzen) beruht, im Einklang mit den Rechtsvorschriften der Union über Verbraucherschutz, Datenschutz und digitale Dienste erfolgt und nicht zu einer Schlechterstellung oder Benachteiligung führt, die in keinem angemessenen Verhältnis zur Tragweite des sozialen Verhaltens des Nutzers steht (z. B. ausbeuterische und unfaire differenzierte Preisgestaltung).&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 177.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit c&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Bewertung des Risikos, dass eine Person eine Straftat&#039;&#039;&#039; begeht (ausschließlich aufgrund von Profiling)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Eine Polizeidienststelle verwendet KI-gestützte Risikobewertungsinstrumente, um das Risiko zu bewerten, dass kleine Kinder und Jugendliche an „künftigen Gewalttaten und Eigentumsdelikten“ beteiligt sein werden. Das System bewertet Kinder auf der Grundlage ihrer Beziehungen zu anderen Menschen und deren vermeintlichen Risikoniveaus, dh es wird eventuell davon ausgegangen, dass bei Kindern ein höheres Risiko für die Begehung von Straftaten besteht, einfach weil sie mit einer anderen Person wie einem Geschwisterkind oder einem Freund verbunden sind, bei der eine hohe Risikobewertung vorliegt. Das Risikoniveau der Eltern kann sich ebenfalls auf das Risikoniveau eines Kindes auswirken.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 202.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Standortbezogene oder geodatenbasierte Vorhersagen oder ortsbezogene Verbrechensvorhersagen (zB KI-System zur Berechnung der Kriminalitätswahrscheinlichkeit in bestimmten Stadtgebieten oder von Schmuggelrouten)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Unterstützung der durch Menschen durchgeführten Bewertung, die sich auf objektive und überprüfbare Tatsachen stützt, die in Zusammenhang mit einer kriminellen Aktivität stehen (zB Profiling zur Vorhersage gefährlichen Verhaltens in einer Menschenmenge, KI-basiertes Profiling von Personen, gegen die bereits ein Verdacht besteht, der auf mehreren überprüfbaren, objektiven Tatsachen beruht).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basiertes Profiling in Bezug auf juristische Personen&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur individuellen Vorhersage von Ordnungswidrigkeiten (zB Bagatellverkehrsdelikte)&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 212 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit d&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erstellung/Erweiterung von &#039;&#039;&#039;Datenbanken&#039;&#039;&#039; zur Gesichtserkennung durch &#039;&#039;&#039;ungezieltes Auslesen von Gesichtsbildern&#039;&#039;&#039;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen für Gesichtserkennungssoftware sammelt Bilder von Gesichtern, die mit einem „automatisierten Bildausleser“, der das Internet durchsucht und Bilder mit menschlichen Gesichtern erkennt, aus sozialen Medien (zB Facebook, X) ausgelesen wurden. Der Bildausleser sammelt diese Bilder mit allen damit verbundenen Informationen (wie der Quelle des Bildes (URL), der Geolokalisierung und manchmal den Namen der einzelnen Personen). Die Gesichtsmerkmale werden dann aus den Bildern extrahiert und in mathematische Darstellungen umgewandelt, die für die Indexierung und den künftigen Vergleich mit Hashtags versehen werden. Wenn ein Nutzer das Bild einer Person in das KI-System hochlädt, wird dieses System bestimmen, ob dieses Bild mit einem Gesicht in der Datenbank übereinstimmt.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 232.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Das ungezielte Auslesen anderer biometrischer Daten als Gesichtsbilder (zB Stimmaufnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Gesichtsbilddatenbanken, die nicht für die Erkennung von Personen verwendet werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Gesichtsbilder aus dem Internet sammeln, um KI-Modelle zur Erzeugung neuer Bilder fiktiver Personen zu entwickeln&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit e&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Emotionserkennungssysteme&#039;&#039;&#039; am Arbeitsplatz oder in Bildungseinrichtungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das beispielsweise aus Gesten, Stirnrunzeln oder fehlendem Lächeln ableitet, dass ein Mitarbeiter unglücklich, traurig oder gegenüber den Kunden wütend ist&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Systeme, die aus Stimmführung oder Körpersprache ableiten, dass ein Schüler zornig und im Begriff ist, gewalttätig zu werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Emotionen aus Tastenanschlägen (Art des Tippens), Gesichtsausdrücken, Körperhaltungen oder Bewegungen ableitet, beruht auf biometrischen Daten und fällt in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die den emotionalen Ton in hybriden Arbeitsteams überwachen, indem sie Emotionen aus Stimm- und Bildaufnahmen hybrider Videokonferenzen erkennen und ableiten, was in Regel der Förderung des sozialen Bewusstseins, des Managements emotionaler Dynamik und der Konfliktverhütung dienen würde&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems bei Online-Prüfungen zur Erkennung von Emotionen wie Erregungs- und Angstzustände&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung zur Bewertung des Wohlbefindens, des Motivationsniveaus und der Arbeits- oder Lernzufriedenheit von Studierenden oder Arbeitnehmern.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der Einsatz von KI-Erkennungssystemen, um auf die Ermüdung eines Berufspiloten oder -fahrers zu schließen, ihn zu warnen und ihm zu empfehlen, zur Vermeidung von Unfällen Pausen einzulegen, da Emotionserkennung keine physischen Zustände wie Schmerzen oder Ermüdung einschließt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das aus schriftlichen Texten (Analysen von Inhalt und Stimmung) Emotionen ableitet, um den Stil oder den Ton eines bestimmten Artikels zu bestimmen, beruht nicht auf biometrischen Daten und fällt daher nicht in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Werden Emotionserkennungssysteme nur zu persönlichen Schulungszwecken eingesetzt, sind sie zulässig, sofern die Ergebnisse nicht Personen mit Personalverantwortung zur Verfügung gestellt werden und keine Auswirkungen auf das Arbeitsverhältnis haben&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die durch eine Bildungseinrichtung erfolgende Verwendung einer KI-gestützten Software zur Verfolgung der Augenbewegungen bei Online-Prüfungen Studierender, um den Fixierungspunkt und die Bewegung der Augen zu verfolgen (um beispielsweise zu erkennen, ob unerlaubtes Material verwendet wird), ist nicht verboten, da das System Emotionen weder erkennt noch ableitet&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung aus medizinischen Gründen zur Unterstützung von Arbeitnehmern oder Studierenden mit Autismus und zur Verbesserung der Barrierefreiheit für blinde oder gehörlose Menschen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit f&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Kategorisierung,&#039;&#039;&#039; Ableitung von sensiblen Daten (religiöse Weltanschauung, politische Einstellung)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Personen, die auf einer Plattform sozialer Medien aktiv sind, nach ihrer angenommenen politischen Ausrichtung kategorisiert, indem es die biometrischen Daten der von ihnen auf die Plattform hochgeladenen Fotos analysiert, um ihnen gezielte politische Nachrichten zu übermitteln&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;ein System zur biometrischen Kategorisierung, das für sich in Anspruch nimmt, die religiöse Ausrichtung einer Person aus ihren Tätowierungen oder ihrem Gesicht ableiten zu können.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 280 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die mit der Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze, auch zu Strafverfolgungszwecken, befasst sind (zB bei Verdacht auf Darstellungen sexuellen Kindesmissbrauchs)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;die Kategorisierung von Patienten, bei der Bilder nach ihrer Haut- oder Augenfarbe verwendet werden, für medizinische Diagnosen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 284 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit g&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Echtzeit-Fernidentifizierungssysteme&#039;&#039;&#039; in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die polizeiliche Verwendung von Systemen zur biometrischen Echtzeit-Fernidentifizierung zu dem Zweck, Ladendiebe zu identifizieren und ihre Gesichtsbilder mit Kriminaldatenbanken zu vergleichen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 328.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung von Echtzeit-Gesichtserkennungstechniken durch die Polizei nach einem schweren Terroranschlag auf einen Weihnachtsmarkt mit zwölf Toten, um den Täter zu identifizieren und festzustellen, wohin er flieht. In diesem Zusammenhang nutzen sie auch die Echtzeit-Gesichtserkennungstechnik des nahe gelegenen Bahnhofs und der Zielbahnhöfe der Züge, die kurz nach dem Angriff von dort abgehen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 354.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit h&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&amp;lt;br /&amp;gt;&lt;br /&gt;
Einige dieser Praktiken sind darüber hinaus bereits nach anderen Rechtsvorschriften verboten, so beispielsweise gewisse manipulative und täuschende Techniken als &amp;quot;dark patterns&amp;quot; nach dem [[Digital Services Act (DSA)|Digital Services Act]] (gilt nur für bestimmte Plattform-Anbieter) oder die Verarbeitung biometrischer Daten zur Identifizierung einer Person nach Art 9 Abs 1 DSGVO, sofern keine der in Abs 2 genannten Ausnahmen vorliegt. Gemäß der neuen Plattformarbeitsrichtlinie&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Richtlinie (EU) 2024/2831 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit, ABl L 11. 11. 2024.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;, die bis Dezember 2026 in nationales Recht umzusetzen ist, ist überdies der Einsatz von automatisierten Überwachungs- und Entscheidungssystemen zur Erfassung personenbezogener Daten über den emotionalen oder psychischen Zustand einer Person (Emotionserkennung) verboten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;MwN &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2024) Art 5 Rz 104.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act klassifiziert Hochrisiko-KI-Systeme in Art 6. Dabei kennt er zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige&amp;quot; Hochrisiko-KI-Systeme bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei folgenden Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder stellt selbst ein solches Produkt dar&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten: bspw biometrische Identifizierung, kritische Infrastrukturen, grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle, Justiz und demokratische Prozesse).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis einer Entscheidungsfindung, an der das System beteiligt ist, wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot; &amp;lt;mark&amp;gt;Als Profiling gilt dabei iSd Art 4 Abs 4 DSGVO jede automatisierte Verarbeitung personenbezogener Daten, die darin besteht, bestimmte persönliche Aspekte einer Person zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, Gesundheit, persönliche Vorlieben, Zuverlässigkeit, Verhalten etc. zu analysieren oder vorherzusagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Europäische Kommission hat im Rahmen von Public Consultations unter anderem auch Rückmeldungen zu Anforderungen an Hochrisiko-KI-Systeme eingeholt, die eine Grundlage für Leitlinien bilden sollen, welche im Februar 2026 veröffentlicht werden sollen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;European Commission, Commission launches public consultation on high-risk AI systems, https://digital-strategy.ec.europa.eu/en/news/commission-launches-public-consultation-high-risk-ai-systems (Stand 6.6.2025).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Pflichten für Betreiber von Hochrisiko-KI-Systemen&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Betreiberpflichten nach Art 26 AI Act&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis &amp;lt;mark&amp;gt;([https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#KI-Kompetenz/AI_literacy_(Art_4_AI_Act) &amp;quot;KI-Kompetenz&amp;quot;] nach Art 4&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 40. &amp;lt;/ref&amp;gt;)&amp;lt;/mark&amp;gt; verfügen und ihnen die erforderliche Unterstützung zukommen lassen. &lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von automatisiert erzeugten &#039;&#039;&#039;Protokollen&#039;&#039;&#039; &amp;lt;mark&amp;gt;für einen Zeitraum von zumindest 6 Monaten (wobei hier entgegenstehende datenschutzrechtliche Regelungen vorgehen würden&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 42.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;)&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, vor Verwendung oder Inbetriebnahme des Hochrisiko-KI-Systems am Arbeitsplatz. &amp;lt;mark&amp;gt;Dies umfasst sowohl den Einsatz von &amp;quot;eingebetteten&amp;quot; als auch &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Weiters sind die Mitwirkungspflichten des Betriebsrats zu berücksichtigen (vgl §§ 96 f ArbVG). Nicht umfasst sind wahrscheinlich Informationspflichten gegenüber Bewerbern, da diese tendenziell nicht unter den von dieser Bestimmung geforderten &amp;quot;Arbeitnehmer-Begriff&amp;quot; fallen&amp;lt;/mark&amp;gt;.&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet. &amp;lt;mark&amp;gt;Diese Bestimmung gilt lediglich für den Einsatz von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen nach Art 6 Abs 2 iVm Anhang III.Die danach mitzuteilende Information sollte die Zweckbestimmung und die Art der getroffenen Entscheidung beinhalten (vgl ErwGr 93) sowie - nach einer hier vertretenen Auffassung - eine vorab Information über das Recht auf Erklärung nach Art 86 AI Act, welches von KI-Entscheidungen Betroffenen das Recht zugesteht, unter gewissen Voraussetzungen vom Betreiber eine klare und aussagekräftige Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess sowie zu den wichtigsten Elementen der getroffenen Entscheidung zu erhalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe die entsprechende Argumentationslinie im Detail: &#039;&#039;Research Institute&#039;&#039;, Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025) 100 ff, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.  &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 27 Abs 4 macht überdies die Verzahnung der Grundrechte-Folgenabschätzung (GRFA) mit anderen Folgenabschätzungen deutlich und schreibt bspw vor, dass bei Vorliegen einer Datenschutz-Folgenabschätzung nach Art 35 DSGVO die GRFA diese ergänzen bzw in diese integriert werden solle.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Piltz/Zwerschke&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 27 Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme Rz 32.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Sowohl die Verpflichtungen nach Art 26 als auch die Durchführung einer GRFA nach Art 27 treffen den Betreiber unabhängig davon, ob jemand (bspw Betroffene) deren Einhaltung einfordern. Im Unterschied dazu enthält der AI Act in den Artt 85 ff sog &amp;quot;Betroffenenrechte&amp;quot;, die aktiv von betroffenen Personen geltend zu machen sind. Dazu zählt insbesondere das [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Recht auf Erklärung nach Art 86], welches das einzige Betroffenenrecht darstellt, das direkt gegen den Betreiber durchsetzbar ist.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführer oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn die genannten Personen ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen;&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt;&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das &#039;&#039;nicht&#039;&#039; als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird.&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter (Erstanbieter) nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat jedoch mit dem neuen Anbieter zusammenzuarbeiten, insb Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI Act muss beachtet werden, dass die Rollenverteilung eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters erfolgt, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden &amp;lt;mark&amp;gt;sowie den Anforderungen an die Barrierefreiheit genügen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots, &amp;lt;mark&amp;gt;Sprachassistenten, Social Bots)&amp;lt;/mark&amp;gt;, sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Pflicht kann entfallen, wenn die Interaktion mit dem KI-System aus Sicht einer angemessen informierten, aufmerksamen und verständigen Person offensichtlich ist oder beim Einsatz von KI-Systemen, die für die Strafverfolgung zugelassen sind.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 43.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
*&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 40.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Chatbots&#039;&#039;&#039; können durch einen textlichen Hinweis zu Beginn des Gesprächs oder ein dauerhaft angezeigtes grafisches Symbol vorgestellt werden.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Bei &#039;&#039;&#039;Voicebots&#039;&#039;&#039; kommt eine der Interaktion vorausgehende Ansage, welche auf den KI-Einsatz hinweist, in Betracht.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social Bots&#039;&#039;&#039; können eine Information vor und mit jeder Interaktion des Bots in sozialen Netzwerken erfordern, da das System stets mit einem neuen Personenkreis in Interaktion tritt (zB AI-Influencer).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Das KI-Büro hat am 5. November 2025 Arbeiten an einem Verhaltenskodex in Bezug auf die Kennzeichnung von KI-generierten Inhalten aufgenommen. Die entsprechenden Leitlinien werden in einem siebenmonatigen Prozess, der sich insbesondere durch die Einbindung von relevanten Stakeholdern und öffentliche Konsultationen auszeichnen soll, erarbeitet werden. Näheres unter: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Mögliche Methoden wären bspw Wasserzeichen, Metadatenidentifizierungen, Kryptografische Methoden (zB &amp;quot;Hashing&amp;quot;), Protokollierungsmethoden oder Fingerabdrücke.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 133 Satz 4 sowie mwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 84 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Denkbar ist bspw eine Umsetzung in Form eines sichtbaren Wasserzeichens, eines textlichen Hinweises, durch Hinzufügen von sog C2PA-Content Credentials&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Die C2PA („Coalition forContent Provenanceand Authenticity“) ist ein branchenübergreifendes Non-profit-Projekt, das die Entwicklung gemeinsamer technischer Standards zur Ermittlung der Herkunft von digitalen Inhalten zum Ziel hat. Siehe dazu https://c2pa.org/. So hat sich bspw LinkedIn bei der Erkennung KI-generierter Inhalte diesen Standards unterworfen: https://www.linkedin.com/help/linkedin/answer/a6282984. MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 150.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;oder bei Audioinhalten durch eine Ansage zu Beginn des Audioinhalts.&amp;lt;ref&amp;gt;&#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 148 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Verpflichtung entfällt, wenn die betreffenden Inhalte vor ihrer Veröffentlichung einer menschlichen oder redaktionellen Kontrolle unterzogen wurden und eine Person die redaktionelle Verantwortung dafür trägt. Da die Anforderungen an die menschliche bzw redaktionelle Kontrolle nicht konkretisiert werden, unterwerfen sich bspw im journalistischen Bereich zahlreiche Medien freiwilligen Leitlinien (so etwa die [https://www.blm.de/files/pdf2/ki-leitlinien.pdf Leitlinien des Medienrats der Bayerischen Landeszentrale für neue Medien (BLM) zum Einsatz von Künstlicher Intelligenz im Journalismus]).&amp;lt;ref&amp;gt;MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 163 f.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als &amp;quot;KI-Systeme mit minimalem Risiko&amp;quot; bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf den sprunghaften Durchbruch generativer KI-Modelle, die für viele verschiedene Zwecke eingesetzt werden können, in den Jahren 2022 und 2023 wurden unter Durchbrechung des bisherigen zweck- und risikoorientierten Regelungsansatzes im Entwurfsstadium des AI Act nachträglich Regeln für solche Modelle eingefügt. Ein GPAI-Modell (in früheren Entwurfsfassungen foundation model/Basismodell) ist dabei in Art 3 Z 63 AI Act definiert als ein KI-Modell, das&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;das eine erhebliche allgemeine Verwendbarkeit aufweist,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;In den von der EU-Kommission im Juli 2025 veröffentlichten Leitlinien zu GPAI-Modellen werden eine kumulierte Menge der für das Training verwendeten Berechnungen gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; von mehr als 10&amp;lt;sup&amp;gt;23&amp;lt;/sup&amp;gt; und die Fähigkeit, geschriebene oder gesprochene Sprache (aber auch Bilder oder Videos aus Text) zu generieren, als Anhaltspunkte für das Vorliegen eines GPAI-Modells angegeben, es sei denn, das Modell erfüllt die oben angegebenen Kriterien der Allgemeinheit nicht (zB weil es spezifisch nur für die Transkription von Sprache in Text trainiert wurde).&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 13 ff.&amp;lt;/ref&amp;gt; Somit ist davon auszugehen, dass die üblichen [https://de.wikipedia.org/wiki/Large_Language_Model LLM]s, wie die GPT-Serie von OpenAI, die Gemini-Serie von Google oder die Claude-Serie von Anthropic als GPAI-Modelle im Sinne dieser Definition einzustufen sind.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt.&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Abgrenzung der Rollen entlang der Wertschöpfungskette&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&amp;lt;mark&amp;gt;In Bezug auf GPAI-Modelle können folgende Rollen unterschieden werden:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Anbieter (Providers) von GPAI-Modellen:&#039;&#039;&#039; Entwickeln ein GPAI-Modell oder lassen es entwickeln und bringen es ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr oder nehmen es unter ihrem eigenen Namen oder ihrer Handelsmarke in Betrieb, sei es entgeltlich oder unentgeltlich (Art 3 Z 3 AI Act);&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 48 ff.&amp;lt;/ref&amp;gt; sie treffen primär die nachfolgend beschriebenen Pflichten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;Nachgelagerte Modifizierer (Downstream Modifiers) &#039;&#039;&#039;von GPAI-Modellen&#039;&#039;&#039;: Fine-tunen/modifiziern&amp;lt;ref&amp;gt;Vgl ErwGr 97 Satz 5.&amp;lt;/ref&amp;gt; bestehende GPAI-Modelle anderer Anbieter; laut der Kommission ist nicht jeder Modifizierer dadurch gleich als Anbieter des modifizierten GPAI-Modells anzusehen, dies jedoch dann, wenn die Modifikation des GPAI-Modells zu einer wesentlichen Änderung der Universalität, der Leistungsfähigkeit oder des systemischen Risikos des GPAI-Modells führt, wobei als Indiz dafür gilt, dass die Anzahl der Berechnungen für die Modifikation ein Drittel jener für das Training des ursprünglichen GPAI-Modells übersteigt.&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 60 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Anbieter (Downstream Providers) von KI-Systemen:&#039;&#039;&#039; Integrieren GPAI-Modelle in KI-Systeme; ein wesentlicher Zweck der Regulierung von GPAI-Modellen ist, dass nachgelagerte Anbieter, ein GPAI-Modell in ihr KI-System integrieren, Informationen über dieses Modell erhalten und darauf basierend ihren eigenen Verpflichtungen (nach den allgemeinen Regeln des AI Act für KI-Systeme) nachkommen zu können.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Betreiber (Deployers):&#039;&#039;&#039; Nutzen ein KI-System im praktischen Einsatz.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme der Hauptgegenstand der Regulierung durch den AI Act sind (risikobasierten Ansatz), unterliegen auf Ebene der Modelle nur GPAI-Modelle einer direkten Regulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese Regulierung unterscheidet zwischen GPAI-Modellen ohne und GPAI-Modellen mit systemischem Risiko. Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act), &lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über &amp;quot;Fähigkeiten mit hohem Wirkungsgrad&amp;quot; verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; FLOPs beträgt. Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act). Oder&lt;br /&gt;
* wenn die Kommission in einer Entscheidung festgestellt hat, dass es über solche Fähigkeiten oder eine solche Wirkung verfügt (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden. &lt;br /&gt;
* Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
* eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
* eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
* mögliche systemische Risiken auf Unionsebene bewerten und mindern,&lt;br /&gt;
* einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
* ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten.&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung des AI Act beitragen sollen.&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von GPAI-Modellen sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 56 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 10. Juli 2025 wurde der Praxisleitfaden &amp;quot;[https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai General-Purpose AI Code of Practice]&amp;quot; veröffentlicht und von der EU-Kommission und vom KI-Gremium am 1. August 2025 gem Art 56 Abs 6 AI Act als angemessen bewertet.&amp;lt;ref&amp;gt;Europäische Kommission, Erstellung eines allgemeinen KI-Verhaltenskodex, https://digital-strategy.ec.europa.eu/de/policies/ai-code-practice.&amp;lt;/ref&amp;gt; Zu diesem wurde auch eine [https://digital-strategy.ec.europa.eu/de/faqs/questions-and-answers-code-practice-general-purpose-ai FAQ-Seite] veröffentlicht. Auch ein [https://ec.europa.eu/newsroom/dae/redirection/document/118118 Musterdokumentationsformular für Modelle] ist Teil des GPAI Code of Practice. Zusätzlich hat die EU-Kommission am 18. Juli 2025 auch [https://ec.europa.eu/newsroom/dae/redirection/document/118340 Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act] veröffentlicht.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Für Anbieter von GPAI-Modellen, die den GPAI Code of Practice unterzeichnen und diesen einhalten, können dadurch nachweisen, dass sie den AI Act einhalten.&amp;lt;ref&amp;gt;Vgl Art 50 Abs 7 und Art 53 Abs 4 AI Act sowie Europäische Kommission, Der General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/de/policies/contents-code-gpai.&amp;lt;/ref&amp;gt; Damit soll Rechtssicherheit geschaffen werden. Es handelt sich dabei aber um eine freiwillige Maßnahme und es steht Anbietern von GPAI-Modellen somit frei, die entsprechenden Bestimmungen des AI Act auch auf andere Weise umzusetzen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Auf der oben verlinkten Website des GPAI Code of Practice ist angegeben, welche Anbieter von GPAI-Modellen diesen unterzeichnet haben. Darunter finden sich die meisten Anbieter der gängigen LLMs, wie Anthropic, Google, OpenAI und Mistral AI.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der AILD und PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Stand November 2025 wurde in Österreich noch keine Behörde als zuständige Marktüberwachungsbehörde eingerichtet oder benannt. Bereits mit 2. November 2024 sind jedoch einige Behörden und öffentliche Stellen im Grundrechtsbereich gemäß Art 77 Abs 2 mit Aufsichts- und Durchsetzungsbefugnissen für Grundrechte insb im Zusammenhang mit Hochrisiko-KI ausgestattet worden, darunter die Volksanwaltschaft, die Datenschutzbehörde, die Arbeiterkammer, die Gleichbehandlungskommission, die Behindertenanwaltschaft, die KommAustria uvm.&amp;lt;ref&amp;gt;Mehr dazu unter: https://www.digitalaustria.gv.at/themen/kuenstliche-intelligenz/behoerden-art77-ai-act.html.&amp;lt;/ref&amp;gt; Dabei treffen auch die (künftig) zuständige Marktüberwachungsbehörde umfassende Kooperationspflichten, wie etwa die Meldung schwerwiegender Grundrechtsvorfälle in diesem Kontext an die genannten Einrichtungen (vgl Art 73 Abs 7 und Art 79 Abs 2 AI Act).&amp;lt;ref&amp;gt;Vgl &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 103, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Dazu hat die Kommission entsprechende Leitlinien zu veröffentlichen, die sich gerade in Ausarbeitung befinden.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung im Einzelfall betroffen sind,&lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (&amp;lt;mark&amp;gt;Recht auf Erläuterung der Entscheidungsfindung im Einzelfall gemäß Art 86 Abs 1 AI Act oder auch gemeinhin als &#039;&#039;&#039;&amp;quot;Recht auf Erklärung&amp;quot;&#039;&#039;&#039; bezeichnet&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157; &#039;&#039;Poindl/Müller,&#039;&#039; Das Recht auf Erklärung im AI Act. Betroffenenrecht mit Potenzial oder Papiertiger?, VbR 2025, 40. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei ist es unerheblich, ob das KI-System die Entscheidung gänzlich autonom getroffen hat oder unterstützend beteiligt war, es darf lediglich keine untergeordnete Rolle im Entscheidungsprozess gespielt haben.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Steht das Recht auf Erklärung zu, hat die betroffene Person einerseits das Recht, eine Erklärung über die Rolle des KI-Systems im Entscheidungsprozess zu verlangen, worunter einerseits Informationen über die zentralen Aufgaben des Systems im Entscheidungsprozess fallen (zB Zielgruppenselektion, Datenanalyse, Vorgabe der Entscheidung usw.) und andererseits auch der Grad dessen Beteiligung (gering, mittel, hoch), was umgekehrt auch den Grad menschlicher Beteiligung an der Entscheidungsfindung erfordert. Weiters sind die wichtigsten Elemente der Entscheidung zu beauskunften, beispielsweise Eingabedaten, wesentliche Entscheidungsgründe, kontrafaktische Erklärungen (inwiefern hätten andere Parameter zu einer anderen Entscheidungen geführt), die Auswirkungen der Entscheidung, die Gewichtung der einzelnen Kriterien und die Verarbeitungslogik (Informationen über die grobe Funktionsweise des KI-Systems, keine komplette Offenlegung des algorithmischen Codes). Weiters muss die Erklärung präzise, korrekt, verständlich, nicht zu technisch (keine komplexen mathematischen Formeln), aber dennoch vollständig sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letzter Referenzpunkt ist stets, ob die betroffene Person auf Basis der erlangten Informationen weitere Rechte geltend machen kann, da das Recht auf Erklärung auch oft als &amp;quot;Türöffner&amp;quot; für die Geltendmachung weiterer Rechte dient (so wird bspw eine Klage wegen Diskriminierung in einem Entscheidungsprozess erst erhoben werden können, wenn die betroffene Person genügend Informationen hat, um die Diskriminierung darzulegen, bspw die Gewichtung von bestimmten persönlichen Merkmalen, die ausschlaggebend für die Entscheidung war).&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Es handelt sich somit um ein nachgelagertes bzw &#039;&#039;ex post&#039;&#039; Recht, das nicht nur globale, abstrakte Systemerklärungen erfordert, sondern auch lokale, einzelfallbezogene Auskünfte umfasst, damit die betroffene Person die Informationen wirksam nutzbar machen kann .&amp;lt;/mark&amp;gt; Das Recht auf Erklärung steht Betroffenen gegenüber Betreibern und nicht gegenüber Anbietern zu, wobei letztere wiederum Betreibern entsprechende Betriebsanleitungen bereitzustellen haben (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung gilt nicht, sofern Ausnahmen nach Unionsrecht oder nationalem Recht bestehen (Art 86 Abs 2). Zu denken wäre hier etwa an Beschränkungen der Informationspflicht aufgrund geschützter Betriebs- oder Geschäftsgeheimnisse, wobei diese nicht zu einer pauschalen Auskunftsverweigerung führen dürfen.&amp;lt;/mark&amp;gt; Art 86 Abs 1 gilt überdies nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung Subsidiarität] ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung ist immer dann relevant, wenn Unternehmen, Behörden etc. KI in Entscheidungsfindungsprozessen einsetzen, die Auswirkungen auf bestimmte Personen(-gruppen) haben. Zu denken ist etwa an KI-basierte Entscheidungen über die Vergabe von Krediten, über die Berücksichtigung einer Bewerbung, über die Höhe einer Versicherungsprämie oder personalisierte Werbeschaltungen auf Basis von Emotionserkennung.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zum Umgang mit dem Recht auf Erklärung in der Praxis hat das &#039;&#039;Research Institute&#039;&#039; im Auftrag des Bundesministeriums für Arbeit, Soziales, Gesundheit, Pflege und Konsumentenschutz Leitlinien entwickelt:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:f1685e43-21b8-48f3-9fe5-2c61898960ae/Final_Aufkl%C3%A4rung%204.0_Unternehmensleitfaden_April2025.pdf Leitfaden für Unternehmen] im Umgang mit Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:40ba630c-39af-4b8d-8768-a69192427b09/Final_Aufkl%C3%A4rung%204.0_Konsumentinnenleitfaden_April2025.pdf Leitfaden für Konsument:innen und ihre Interessenvertretungen] zur Durchsetzung ihrer Rechte&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf Theoretischer Grundlagenbericht] zur wissenschaftlichen Fundierung der ausgesprochenen Empfehlungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Grundlegende Überschneidungen zwischen dem AI Act und der Datenschutz-Grundverordnung (DSGVO)&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Da KI-Systeme bzw -Modelle häufig personenbezogene Daten verarbeiten - bspw im Rahmen des Trainings eines KI-Modells oder zur Entscheidungsunterstützung in Bezug auf konkrete Personen -, stellt sich unweigerlich die Frage nach dem Zusammenwirken des AI Act mit der DSGVO.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Der Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA) des LfDI Baden-Württemberg enthält eine Auswahl von Orientierungshilfen verschiedener Aufsichtsbehörden und Gremien zu den Schnittstellen von DSGVO und KI: https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0. MwN &#039;&#039;Holtz/Ledendal,&#039;&#039; AI Data Governance - Overlaps Between the AI Act and the GDPR (iE, 2026): https://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1996843&amp;amp;dswid=-4177 sowie der [https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/DE-Bridge-Blueprint-v.0.9.pdf &amp;quot;Bridge Blueprint&amp;quot;-Entwurf] zur einheitlichen Anwendung von Datenschutz- und KI-Regulierung des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI).&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letztere knüpft ihren Anwendungsbereich nämlich an die Verarbeitung personenbezogener Daten iSd Art 4 Abs 1 DSGVO, worunter alle Informationen zu verstehen sind, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Die DSGVO ist seit 2018 in Anwendung und verfolgt den Grundsatz, dass jegliche Verarbeitung personenbezogener Daten verboten ist, es sei denn, es liegt ein Erlaubnistatbestand nach Art 6 Abs 1 DSGVO vor. Für die Verarbeitung sog &amp;quot;sensibler Daten&amp;quot; nach Art 9 DSGVO (zB Gesundheitsdaten, die ethnische Herkunft, die religiöse Weltanschauung etc.) legt sie noch strengere Maßstäbe an. Damit verfolgt die DSGVO einen horizontalen sowie prinzipienbasierten Ansatz, wonach bei der Verarbeitung personenbezogener Daten bestimmte Anforderungen und Grundsätze einzuhalten sind, ungeachtet der verwendeten Technologie, des Sektors oder des Einsatzgebiets.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 32, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus orientiert sich die Verordnung daran, inwieweit eine bestimmte Datenverarbeitung ein Risiko für die Rechte und Freiheiten natürlicher Personen darstellt (&amp;quot;risikobasierter Ansatz&amp;quot;), wonach sich letztendlich die Strenge der von ihr vorgeschriebenen Verpflichtungen bemisst.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Der AI Act erkennt das Primat der DSGVO in Art 2 Abs 7 an und statuiert, dass er deren Anwendungsbereich unberührt lässt. Somit gehen im Falle der Verarbeitung personenbezogener Daten durch eine KI-Anwendung die Regelungen der DSGVO grundsätzlich vor, während der AI Act dem ergänzend eine produktsicherheitsrechtliche Komponente beifügt, die während der Entwicklung und des Einsatzes von KI zu beachten ist.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 33, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Überschneidungen beider Rechtsakte ergeben sich bspw, sobald ein KI-Modell mit personenbezogenen Daten &#039;&#039;&#039;trainiert&#039;&#039;&#039; werden soll. In diesem Fall braucht es eine Rechtsgrundlage nach Art 6 Abs 1 DSGVO (und ggf Art 9 DSGVO), wobei hier am ehesten die berechtigten Interessen des Verantwortlichen nach lit f leg cit infrage kommen. So hat sich bspw der Facebook-Mutterkonzern Meta auf berechtigte Interessen berufen, um sein Sprachmodell &amp;quot;LLaMA&amp;quot; hinter seiner &amp;quot;Meta AI&amp;quot; mit Nutzerdaten zu trainieren. Dagegen erhob die Verbraucherschutzzentrale NRW Antrag auf Erlass einer einstweiligen Verfügung, letztendlich entschied jedoch das OLG Köln in seinem Beschluss vom 23.05.2025 (15 UKl 2/25), dass sich Meta für das KI-Training mit Nutzerdaten auf berechtigte Interessen stützen könne.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://www.verbraucherzentrale.nrw/urteilsdatenbank/digitale-welt/olg-koeln-weist-eilantrag-der-verbraucherzentrale-nrw-gegen-meta-wegen-kitraining-zurueck-108065.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Umgekehrt ist laut Art 35 DSGVO immer dann eine Datenschutz-Folgenabschätzung durchzuführen, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat, insbesondere bei Verwendung neuer Technologien. Darunter fallen gemäß §2 Abs 2 Z 4 DSFA-V&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Verordnung der Datenschutzbehörde über Verarbeitungsvorgänge, für die eine Datenschutz-Folgenabschätzung durchzuführen ist (DSFA-V), BGBl. II Nr. 278/2018.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;insbesondere Datenverarbeitung unter Einsatz von künstlicher Intelligenz, welcher jedenfalls die Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung nach sich zieht. Somit löst auch der Einsatz von KI unter gewissen Voraussetzungen datenschutzrechtliche Pflichten aus.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: Digital Services Act (DSA) vs AI Act ===&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der DSA legt einheitliche Regeln für Vermittlungsdienste mit dem Ziel fest, ein vertrauenswürdiges, (rechts-)sicheres und vorhersehbares Online-Umfeld für Verbraucher und Unternehmen durch eine harmonisierte Plattformregulierung zu gewährleisten. Ebenso zielt das Regelwerk auf den Schutz sowie die Gewährleistung einer effektiven Grundrechtsausübung und normiert umfassende Verpflichtungen für Anbieter von Online-Diensten in Form eines abgestuften Regelungsansatzes, der die unterschiedlichen Compliance-Pflichten an die Art und Größe der jeweiligen Online-Dienste knüpft. Dabei kennt der DSA folgende Anbieterkategorien: Anbieter von allgemeinen Vermittlungsdiensten, Hostingdiensten, Online- sowie Transaktionsplattformen und sehr großen Online-Plattformen (VLOPs) und -Suchmaschinen (VLOSEs). Überschneidungen mit dem AI Act können sich auf zweierlei Weise ergeben: Einerseits können KI-Anwendungen zur Generierung oder Manipulation von Inhalten verwendet werden, die dann über Vermittlungsdienste geteilt werden. Andererseits können KI-Systeme das Kernangebot des Diensteanbieters ausmachen, in der Inhaltsmoderation eingesetzt werden oder Produkt- bzw Service-Empfehlungen auf Basis von Nutzerverhalten (&amp;quot;Empfehlungsalgorithmen&amp;quot;) schalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 48, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Allgemeine Synergien sind dem [[Digital Services Act (DSA)|Eintrag über den DSA]] zu entnehmen.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
* Weiters kann es bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act in Bezug auf die notwendige Risikoanalyse kommen. &amp;lt;mark&amp;gt;So fordern die Artikel 34 und 35 DSA die Analyse jener potenzieller systemischer Risiken, die sich durch das Design, die Funktion oder die Nutzung ihrer Services ergeben, insbesondere im Zusammenhang mit algorithmischen Systemen oder Systemen zur Inhaltsmoderation. Demgegenüber legt der AI Act in Art 17 die Verpflichtung für Anbieter von Hochrisiko-KI-Systemen zur Etablierung eines Risikomanagementsystems gemäß Art 9 AI Act fest und sieht spezielle Anforderungen für Anbieter von GPAI-Modellen mit systemischem Risiko vor (Art 55 Abs 1 lit b AI Act).&amp;lt;/mark&amp;gt; Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Im Fall von Anbietern von Hochrisiko-KI-Systemen sieht der AI Act sogar explizit die Möglichkeit vor, Risikomanagementprozesse nach anderen unionsrechtlichen Bestimmungen mit jenen nach dem AI Act zu kombinieren (vgl Art 9 Abs 10 AI Act).&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 49, &amp;lt;nowiki&amp;gt;https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Art 86 AI Act normierte Recht auf Erläuterung] besteht potentiell eine Subsidiarität gegenüber anderen Auskunftsansprüchen, insb der Auskunftspflicht nach Art 15 Abs 1 lit h DSGVO iVm Art 22 DSGVO. &amp;lt;mark&amp;gt;Demnach steht Personen, die von einer automatisierten Entscheidungsfindung im Einzelfall einschließlich Profiling betroffen sind, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie ähnlich erheblich beeinträchtigt, das Recht zu, neben allgemeinen Informationen über die Verarbeitung ihrer personenbezogenen Daten aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und Auswirkungen einer derartigen Verarbeitung zu verlangen. Inhaltlich&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;richtet sich der Auskunftsanspruch nach Art 15 Abs 1 lit h DSGVO gemäß rezenter EuGH-Judikatur insb auf die Erläuterung des Verfahrens und der Grundsätze, die bei der automatisierten Verarbeitung der personenbezogenen Daten der betroffenen Person zur Anwendung kamen und zu dem bestimmten Ergebnis geführt haben.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117, Rz 58. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Frage nach einer potenziellen Subsidiarität von Art 86 AI Act gegenüber den entsprechenden datenschutzrechtlichen Vorschriften hängt von unterschiedlichen Fallszenarien ab, in denen die jeweils verwendeten Technologien und verarbeiteten Datenkategorien zu unterschiedlichen Ergebnissen führen können:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 15 Abs 1 lit h iVm Art 22 DSGVO&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsfolge&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Hochrisiko-KI-Einsatz in Entscheidungsfindungsprozessen, in denen entweder keine personenbezogenen Daten gemäß Art 4 Z 1 DSGVO verarbeitet werden (zB Verarbeitung lediglich aggregierter Daten) oder keine vollautomatisierte Entscheidung iSd Art 22 DSGVO getroffen wird (etwa weil ein Mensch maßgeblich an der Entscheidungsfindung beteiligt ist)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Das Recht auf Erklärung steht vollumfänglich wie in Art 86 Abs 1 dargelegt zu (bei Vorliegen der übrigen Voraussetzungen). Der betroffenen Person sind somit klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess und zu den wichtigsten Elementen der getroffenen Entscheidung zu übermitteln, wobei die Erklärung einzelfallbezogen und auf das konkrete Ergebnis gerichtet sein muss. Der Anwendungsbereich von Art 15 (Abs 1 lit h iVm Art 22) DSGVO ist hingegen nicht eröffnet. Das Recht, die Entscheidung anzufechten, steht - zumindest gemäß AI Act - nicht zu.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Es findet eine vollautomatisierte Entscheidungsfindung auf Basis der Verarbeitung personenbezogener Daten statt, allerdings ohne Beteiligung eines Hochrisiko-KI-Systems iSd Art 6 Abs 2 iVm Anhang III AI Act (bspw wird die Entscheidung durch einen herkömmlichen Algorithmus getroffen, der Anforderungen an ein KI-System nach Art 3 Z 1 AI Act nicht erfüllt oder das KI-System fällt nicht in den Hochrisiko-KI-Bereich)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Auskunftsanspruch gemäß Art 15 (Abs 1 lit h iVm Art 22) DSGVO steht bei Vorliegen der übrigen Voraussetzungen zu, während das Recht auf Erklärung nach Art 86 AI Act keine Anwendung findet. Es sind der betroffenen Person somit Informationen über die involvierte Logik, Tragweite und Auswirkungen der Entscheidung zu übermitteln, wobei Informationen über die Rolle des eingesetzten Systems nicht darunter fallen. Im Unterschied zu Art 86 AI Act ist in Bezug auf Art 15 Abs 1 lit h DSGVO jedoch noch unklar, ob auch eine Verpflichtung zu einer einzelfallbezogenen Begründung der konkret erzielten Ergebnisse besteht, die über eine abstrakte/allgemeine Erklärung hinausgeht.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl etwa das EuGH-Urteil in der RS Dun &amp;amp; Bradstreet, welches stärker auf das lokale Element, dh die Einzelentscheidung, abzustellen scheint (EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117). MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 71, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Art 22 Abs 3 DSGVO enthält jedoch im Gegensatz zum AI Act das Recht, die Entscheidung anzufechten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Verarbeitung personenbezogener Daten im Rahmen der Entscheidungsfindung, Einsatz eines Hochrisiko-KI-Systems, vollautomatisierte Entscheidungsfindung&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Anspruch nach Art 86 AI Act tritt ergänzend zu jenem nach der DSGVO hinzu und richtet sich auf jene Informationen, die nach Art 15 DSGVO nicht zu beauskunften sind (bspw die Rolle des KI-Systems im Entscheidungsprozess sowie jedenfalls einzelfallbezogene, lokale Erklärungen). Es handelt sich somit um eine sog &amp;quot;Lückenfüller-Position&amp;quot; von Art 86 AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Ansicht folgend und mwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 96 ff, &amp;lt;nowiki&amp;gt;https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;mark&amp;gt;In der Regel werden Betroffene in der Praxis wohl beide Ansprüche gleichzeitig geltend machen. Dies ist allerdings nur möglich, sofern beide Ansprüche auch gegenüber der selben Person bzw Einrichtung geltend zu machen sind. Denn während das Recht auf Erklärung nach Art 86 AI Act gegen den Betreiber des KI-Systems zusteht, ist der Auskunftsanspruch gemäß Art 15 Abs 1 lit h DSGVO gegen jene Person oder Stelle zu richten, welche die Entscheidung getroffen hat (welche zwar meist aber nicht zwangsläufig mit der Person des datenschutzrechtlich Verantwortlichen iSd Art 4 Z 7 DSGVO ident sein wird&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Argumentation folgend: &#039;&#039;Ziegenhorn,&#039;&#039; Wer ist Adressat des Art. 22 DSGVO? Zur Abgrenzung des Entscheiders vom Verantwortlichen, CR 2024, 586.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;). Die unterschiedlichen Rollen nach AI Act und DSGVO können somit zusammenfallen, müssen dies allerdings nicht, wodurch sich unterschiedliche Verpflichtungen für die beteiligten Akteure ergeben können.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== Produkthaftungsrichtlinie neu und Vorschlag für eine AI Liability Directive [zurückgezogen] ===&lt;br /&gt;
&lt;br /&gt;
* Die Produkthaftungsrichtlinie neu (PHRL neu) und insbesondere &amp;lt;mark&amp;gt;der (zurückgezogene)&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Commission work programme 2025, (11.2.2025) COM(2025) 45 final, 26.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Vorschlag für eine&amp;lt;/mark&amp;gt; AI Liability Directive (AILD) nehmen direkt auf den AI Act Bezug und verweisen bei der Begriffsverwendung häufig auf diesen. Die AILD kann somit nicht ohne den Kontext des AI Act verstanden werden. So sollten die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD bilden ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]). &lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act überträgt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Begleit- bzw Durchführungsgesetz, das die Sanktionen konkretisiert.  &amp;lt;mark&amp;gt;Auch die notifizierende(n) Behörde(n) und die Marktüberwachungsbehörde(n) (Art 70 AI Act) wurden in Österreich noch nicht benannt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 5: Transkriptionstool im Rahmen der Rechtspflege&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|&amp;lt;mark&amp;gt;Im Rahmen des Verfassens von Urteilen oder Protokollen wird das gesprochene Wort (Diktat des Entscheidungsorgans) digital aufgezeichnet und anschließend transkribiert. Das System ist in der Lage, mithilfe KI-gestützter Spracherkennung die jeweils Sprechenden (Speaker Diarisation) sowie juristische Begriffe und Redewendungen zu erkennen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Transkriptionssoftware liegt ein Sprachmodell (LLM) zugrunde, das auf maschinellem Lernen basiert. Dieses wird durch ein User-Interface praktisch nutzbar gemacht und stellt somit ein KI-System iSd AI Act dar.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&amp;lt;mark&amp;gt;Der Einsatz von KI in der Rechtspflege zu gewissen Zwecken kann in den Hochrisiko-KI-Bereich gemäß Art 6 Abs 2 iVm Anhang III Nr 8 lit a AI Act fallen. Solche Systeme sind jedoch nicht als hochriskant einzustufen, sofern sie für rein begleitende administrative Tätigkeiten bestimmt sind, worunter jedenfalls Spracherkennungsprogramme für das Diktieren von Entscheidungen fallen können (ErwGr 61). In einem nächsten Schritt ist die Ausnahmeregelung des Art 6 Abs 3 AI Act zu prüfen, wonach das System höchstwahrscheinlich gemäß lit a leg cit aus dem Hochrisiko-KI-Bereich ausgenommen ist, da es rein für Protokollierungszwecke eingesetzt wird und damit nur eine eng gefasste Verfahrensaufgabe übernimmt. Ebenso ist denkbar, gemäß lit d leg cit aus dem Hochrisiko-KI-Bereich ausgenommen zu sein, sofern das System lediglich eine vorbereitende Aufgabe für die Urteilserstellung übernimmt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Bejaht man hingegen das Vorliegen von Hochrisiko-KI, so treffen deren Anbieter die Pflichten der Art 8 ff AI Act und den Betreiber insbesondere die Pflichten nach Art 26 und 27 AI Act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Sofern es sich um ein KI-Modell mit allgemeinem Verwendungszweck (mit systemischem Risiko) handelt, treffen den Anbieter diesbezüglich Verpflichtungen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Unabhängig von der Risikoeinstufung des Modells bzw Systems sind darüber hinaus die Transparenzpflichten nach Art 50 AI Act zu beachten sowie ein ausreichendes Maß an KI-Kompetenz unter den Beschäftigten, die mit dem Transkriptionstool arbeiten, herzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 6: KI-System zur Filterung und Priorisierung von Bewerbungen&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Sachverhalt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen möchte eine neue Stelle besetzen und erhält unzählige Bewerbungen. Daher entschließt es sich, ein KI-basiertes System einzusetzen, das Bewerbungen filtert und mit einem Einstufungswert versieht, wodurch die Bewerbungen priorisiert werden. Die zuständigen HR-Mitarbeiter*innen weichen nicht mehr von dem Wert ab und vergeben die Stelle schließlich an jene Person, die den höchsten Einstufungswert erhalten hat.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!&amp;lt;mark&amp;gt;Einordnung AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Sofern es sich bei der Anwendung um ein KI-System nach Art 3 Z 1 AI Act handelt, ist der Anwendungsbereich des AI Act grundsätzlich eröffnet. Das Unternehmen ist jedenfalls als dessen Betreiber zu qualifizieren, da es das System in eigener Verantwortung zu beruflichen Zwecken einsetzt. Sofern es das KI-System auch selbst entwickelt / entwickeln lässt und es unter eigener Marke bzw eigenem Namen in Betrieb nimmt, ist es sogar Anbieter.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]].&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Darüber hinaus stellt das System ein &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System nach Art 6 Abs 2 iVm Anhang III Punkt 4a AI Act dar, da es bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet wird, um Bewerbungen zu filtern und Bewerber zu bewerten. Eine Ausnahme nach Art 6 Abs 3 AI Act vom Hochrisiko-KI-Bereich liegt nicht vor, da das KI-System das Ergebnis der Entscheidungsfindung wesentlich beeinflusst (von dem KI-generierten Eignungswert wird nicht mehr abgewichen). Je nach Rolle treffen das Unternehmen nun weitereichende Verpflichtungen. In den meisten Fällen wird das Unternehmen wohl als Betreiber zu klassifizieren sein, weshalb es unter anderem die Betreiberpflichten nach Art 26 AI Act zu erfüllen und unter gewissen Voraussetzungen eine Grundrechte-Folgenabschätzung nach Art 27 AI Act durchzuführen hat. Art 26 Abs 7 sieht grundsätzlich auch die spezielle Betreiberpflicht vor, vor Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz die Arbeitnehmervertreter und betroffenen Arbeitnehmer über den KI-Einsatz zu informieren. Inwieweit diese Verpflichtung auch gegenüber Bewerbern gilt, die streng genommen (noch) keine Arbeitnehmer sind, ist fraglich und wird wohl zu verneinen sind. Diese vermeintliche Rechtsschutzlücke wird jedoch ohnehin wieder durch die Verpflichtung gemäß Art 26 Abs 11 AI Act ausgeglichen, von Hochrisiko-KI-Entscheidungen betroffene Personen über diesen KI-Einsatz zu informieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= &amp;lt;mark&amp;gt;Digitaler Omnibus&amp;lt;/mark&amp;gt; =&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 19. November 2025 stellte die Europäische Kommission das sogenannte &#039;&#039;&#039;„Digital Omnibus Package“&#039;&#039;&#039; vor, ein Legislativpaket mit dem Ziel, den digitalen Rechtsrahmen der EU zu vereinfachen.&amp;lt;ref name=&amp;quot;:2&amp;quot;&amp;gt;Vgl https://ec.europa.eu/commission/presscorner/detail/de/ip_25_2718. &amp;lt;/ref&amp;gt; Ziel der Maßnahme ist, Verwaltungs- und Umsetzungskosten zu senken, Rechtsklarheit zu erhöhen und insbesondere kleine und mittlere Unternehmen (KMU) zu entlasten, da Unternehmen zunehmend Schwierigkeiten bei der Umsetzung und Koordination von Vorgaben wie etwa dem AI Act sehen. Das Paket umfasst Änderungen und Anpassungen unterschiedlicher Rechtsrahmen, so auch einige Bestimmungen des AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Inhaltliche Änderungen betreffen einerseits die Verpflichtung zur Sicherstellung von KI-Kompetenz (Art 4), welche nunmehr nicht Unternehmen bzw. Einrichtungen selbst treffen soll, sondern die Kommission und die Mitgliedstaaten sind dazu angehalten, Anbieter und Betreiber zur Sicherstellung eines angemessenen Maßes an KI-Kompetenz zu unterstützen. Ebenso stellt die Kommission eine Verzögerung der Anwendbarkeit der Hochrisiko-KI-Bestimmungen in Aussicht, welche mit 2. August 2026 bzw 2. August 2027 Anwendung erlangen sollten. Grund ist das Fehlen von entsprechenden Standards, die eigentlich bis August 2025 zu setzen waren und ohne die laut Kommission die Einhaltung der entsprechenden AI Act-Bestimmungen nicht möglich sei. Die Anwendbarkeit der Hochrisiko-KI-Bestimmungen soll sich um bis zu maximal 16 Monate verzögern, wobei die Vorschriften Geltung erlangen, sobald die Kommission die Verfügbarkeit der erforderlichen Standards und Unterstützungsinstrumente bestätigt.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:2&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus enthält der Vorschlag einen neuen Art 4a, der die Verarbeitung sensibler personenbezogener Daten zur Erkennung und Minderung von Bias unter gewissen Voraussetzungen ermöglicht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Kommissionsleitlinien und sonstige Materialen/Verhaltenskodizes&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zur Definition eines Systems der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 6. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118628&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 4. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118661&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Living Repository zur Förderung des Lernens und des Austausches über KI-Kompetenz vom 04. Februar 2025 (mit Update von April 2025): https://ec.europa.eu/newsroom/dae/redirection/document/112203&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Praxisleitfaden für KI-Modelle mit allgemeinem Verwendungszweck (General-Purpose AI Code of Practice) vom 10. Juli 2025: https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Transparenz: https://ec.europa.eu/newsroom/dae/redirection/document/118120&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Urheberrecht: https://ec.europa.eu/newsroom/dae/redirection/document/118115&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Sicherheit: https://ec.europa.eu/newsroom/dae/redirection/document/118119&amp;lt;/mark&amp;gt;  &lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act vom 18. Juli 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118340&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien und Meldevorlagen zur Meldung schwerwiegender KI-Vorfälle gemäß Art 73 AI Act (&#039;&#039;Entwurf, noch in Ausarbeitung&#039;&#039;): https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; AI Act Service Desk. Frequently Asked Questions (FAQs): https://ai-act-service-desk.ec.europa.eu/en/faq.&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Whistleblower Tool for AI Act, https://digital-strategy.ec.europa.eu/en/news/commission-launches-whistleblower-tool-ai-act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act)&amp;lt;mark&amp;gt;&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024) &amp;lt;mark&amp;gt;(2. Auflage 2026, iE)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schefzig/Kilian,&#039;&#039; BeckOK KI-Recht&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Hochrangige Expertengruppe für Künstliche Intelligenz,&#039;&#039; Ethik-Leitlinien für eine vertrauenswürdige KI (2019), https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425&amp;lt;/mark&amp;gt;&lt;br /&gt;
* [https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0 Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA)]&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4312</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4312"/>
		<updated>2025-11-27T09:18:18Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Praxisleitfäden (codes of practice) (Art 56 AI Act) */ GPAI Code of Practice&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. Februar 2025 (schrittweise)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen von KI-Systemen &lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD, &amp;lt;mark&amp;gt;von der Kommission zurückgezogen&amp;lt;/mark&amp;gt;)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modelle (general purpose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB Verarbeitung zur Vermeidung von Verzerrungen, Art 10), regulatory sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (zB Anbieter- und Betreiberpflichten, Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz (eingeschränkt); reine Forschungszwecke &lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) gelten seit 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (zB Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|Gewährleistung von Transparenz und Verantwortlichkeit&lt;br /&gt;
|Pflichten für Betreiber (professionelle Nutzer*innen) und Anbieter&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (zB Chatbots, Deepfakes)&lt;br /&gt;
|Informationspflichten nach der DSGVO&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
&amp;lt;mark&amp;gt;Der AI Act ist die erste EU-weite, sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) und&amp;lt;/mark&amp;gt; folgt dabei primär einem produktsicherheitsrechtlichem Ansatz, dessen vorrangiges Regulierungsziel die Sicherheit von KI-Systemen und Modellen ist. &amp;lt;mark&amp;gt;Damit ist er Teil des sog [https://single-market-economy.ec.europa.eu/single-market/goods/new-legislative-framework_en?prefLang=de &amp;quot;New Legislative Framework&amp;quot;] (NLF), einem unionsrechtlichen Maßnahmenpaket zur Produktregulierung, das auf die Verbesserung der Marktüberwachung abzielt und sich durch einheitliche Kernelemente auszeichnet (zB Konformitätsbewertungsverfahren, Selbstregulierung, Standards und einheitliche Anforderungen). Im Rahmen des Gesetzgebungsprozesses wurde der Rechtsakt - insbesondere auf Bestreben des Europäischen Parlaments - um menschenrechtliche Aspekte und Betroffenenrechte erweitert, weshalb der AI Act mittlerweile deutlich über reines Produktsicherheitsrecht hinausgeht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modelle&#039;&#039;&#039; bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot;.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei handelt es sich um &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;ableitet&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot;&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe Art 3 Z 1 AI Act. Hervorhebungen nicht im Original. &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;abzuleiten&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Hingegen soll sich nach ErwGr 12 der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen [...]&amp;quot;, womit auf eine Abgrenzung von KI von herkömmlichen Softwarelösungen und Programmierungsansätzen abgezielt wird.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zusammenfassend möchte der EU-Gesetzgeber mit dieser Definition einerseits Rechtssicherheit schaffen, allerdings immer noch Raum für technologischen Fortschritt lassen, um den Anwendungsbereich des AI Act nicht von Vornherein vor potenziellen künftigen technologischen Entwicklungen zu verschließen.&amp;lt;/mark&amp;gt; Dennoch wurde die Definition als zu vage und unbestimmt empfunden. So wurden diverse Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Um den Begriff des KI-Systems also zu konkretisieren und Unsicherheiten zu beseitigen, sollte die Kommission gemäß Art 96 Abs 1 lit f AI Act Leitlinien vorlegen, und damit eine einheitliche Anwendung des Regelwerks fördern sowie Rechtsicherheit gewährleisten&amp;lt;/mark&amp;gt;.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle, &amp;lt;mark&amp;gt;einfache Datenverarbeitungssysteme, auf klassische Heuristik gestützte Systeme, einfache Vorhersagesysteme etc.&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Eine Positiv-Liste, welche Systeme jedenfalls unter den KI-Begriff fallen, enthalten die Leitlinien allerdings nicht. Sie orientieren sich vielmehr an den 7 Kernelementen der KI-Definition gemäß Art 3 Z 1 AI Act. Es wird überdies betont, dass nicht alle Elemente kontinuierlich in den beiden Hauptphasen des Lebenszyklus von KI (&amp;quot;building phase&amp;quot; / &amp;quot;pre-deployment&amp;quot; oder &amp;quot;use phase&amp;quot; / &amp;quot;post-deployment&amp;quot;) vorhanden sein müssen und, dass sich die Leitlinien kontinuierlich weiterentwickeln sollen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Folgende Konkretisierungen der KI-Definition und Beispiele sind den Leitlinien zu entnehmen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Elemente der KI-Definition&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Erläuterungen in den Leitlinien der EU-Kommission&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Maschinengestütztes System&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;KI benötigt Hardware- und Softwarekomponenten&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB eine Hardwareinfrastruktur wie processing units, Speicher, Input/Output-Schnittstellen und Software (Code, Programme etc.)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;autonomer Betrieb (in unterschiedlichem Grade)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erfordert einen gewissen Grad an Unabhängigkeit von menschlichem Eingreifen, wobei Systeme, die vollständig manuelle menschliche Interaktion erfordern, nicht darunter fallen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Umfasst sind Systeme, die zwar einen manuellen Input erfordern, aber von selbst einen Output generieren (zB Chatbots)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anpassungsfähigkeit nach Betriebsaufnahme (optional)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Selbstlernfähigkeiten (nicht zwingend erforderlich); darunter versteht man, ob sich das Verhalten des Systems während seiner Verwendung anpassen oder verändern kann (zB automatisches Lernen, wie Muster oder Beziehungen zwischen Daten erkannt werden können).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungsfähigkeit&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Inferenz, Schlüsseleigenschaft; dient der Abgrenzung von KI-Systemen von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen. Nicht umfasst sind hingegen Systeme, die nur von Menschen programmierten Regeln folgen und automatisiert Operationen ausführen. Die Ableitungsfähigkeit bedeutet daher die Erlernung allgemeiner Konzepte statt fester, vorprogrammierter Regeln.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Bsp: maschinelles Lernen, logik- und wissensgestützte Systeme (Schlussfolgerungen mittels Deduktion oder Induktion)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitung aus Eingaben für implizite oder explizite Ziele&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungen müssen nach entweder:&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;expliziten Zielen (klar definierte, direkt in den Code programmierte Ziele, Optimierung von Kostenfunktionen, Wahrscheinlichkeitsberechnung) oder&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;impliziten Zielen (Ableitung des Ziels aus dem Verhalten oder den dahinterstehenden Annahmen des Systems; bspw Trainingsdaten oder Interaktion des Systems mit Umwelt) erfolgen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erzeugung von Ausgaben&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ausgabe-Arten umfassen unter anderem&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Vorhersagen (Schätzungen unbekannter Werte basierend auf komplexen Datenmustern)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Inhalte (Texte, Bilder, Videos oder Musik)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Empfehlungen (Vorschläge für Maßnahmen, Produkte oder Dienstleistungen, die hochgradig personalisiert sind und Massendaten nutzen).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Entscheidungen (Vollautomatisierte Schlussfolgerungen oder Auswahlentscheidungen, die Prozesse automatisieren, die üblicherweise menschlichem Urteilsvermögen vorbehalten sind)&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;zB die generierten Inhalte von Chatbots, Produktvorschläge, Echtzeit-Vorhersagen, Auswahlentscheidungen&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Beeinflussung physischer oder virtueller Umgebungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Frage, ob das System einen aktiven Einfluss auf die Umgebungen hat, in denen es eingesetzt wird, sei es auf materielle physische Objekte oder auf digitale Räume&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB Roboterarm, Software-Ökosysteme, Datenströme&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}  &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI-Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit aus, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). &amp;lt;mark&amp;gt;Man kann hier den Vergleich zu einem KFZ ziehen, wobei das KI-Modell den Motor darstellt, der die eigentliche &amp;quot;Arbeit&amp;quot; leistet. Um jedoch fahrtüchtig zu sein, bedarf es nicht nur eines Motors, sondern das Fahrzeug benötigt darüber hinaus eine Karosserie, Räder, ein Lenkrad etc. Das wiederum bezeichnet das KI-System, welches das Modell erst durch seine Schnittstellen, seine Benutzeroberfläche etc. &amp;quot;fahrtüchtig&amp;quot; und damit nutzbar macht.&amp;lt;/mark&amp;gt; Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen &amp;quot;Nutzer&amp;quot;) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder sich in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollen:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität), unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act trat am &#039;&#039;&#039;1. August 2024&#039;&#039;&#039; in Kraft und wird generell am &#039;&#039;&#039;2. August 2026&#039;&#039;&#039; anwendbar (Art 113 AI Act). Gestaffelt erlangen einige Bestimmungen jedoch bereits vorab oder danach Geltung:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab &#039;&#039;&#039;2. August 2025&#039;&#039;&#039;&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem &#039;&#039;&#039;2. August 2027&#039;&#039;&#039;&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 111 Abs 2 AI Act enthält dabei jedoch eine sog „grandfathering“-Klausel, nach welcher der AI Act für Betreiber von Hochrisiko-KI-Systemen, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, nur dann gilt, wenn diese Systeme danach in ihrer Konzeption erheblich verändert wurden.&amp;lt;ref&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 23, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Verpflichtung zur Maßnahmenergreifung gilt für Betreiber und Anbieter gleichermaßen und ist ferner unabhängig von der Risikoklasse der infragestehenden KI-Anwendung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Unter KI-Kompetenz versteht man grundsätzlich &amp;quot;die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.&amp;quot;&amp;lt;ref&amp;gt;Vgl die Definition in Art 3 Z 56 AI Act.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dies umfasst die notwendigen Kompetenzen, um fundierte Entscheidungen über KI-Systeme zu treffen, technische Elemente zu verstehen sowie korrekt anzuwenden, die Auswirkungen von KI-basierten Entscheidungen auf Betroffene zu verstehen und KI-generierte Ausgaben angemessen zu interpretieren.&amp;lt;ref name=&amp;quot;:1&amp;quot;&amp;gt;Vgl ErwGr 20 AI Act. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dazu gehört auch, den einschlägigen Akteuren der KI-Wertschöpfungskette jene erforderlichen Kenntnisse zu vermitteln, um die Einhaltung und Durchsetzung der Vorschriften des AI Act zu gewährleisten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Weitere Konkretisierungen oder zwingende Mindestvorgaben für die Sicherstellung der KI-Kompetenz enthält der AI Act allerdings nicht und betont sogar, dass die Konzepte der KI-Kompetenz in Bezug auf den jeweiligen Kontext unterschiedlich sein können.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:1&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Die EU-Kommission hat daher ein [https://digital-strategy.ec.europa.eu/de/library/living-repository-foster-learning-and-exchange-ai-literacy &amp;quot;Living Repository&amp;quot;] angelegt, in dem Unternehmen ihre Praktiken in Bezug auf KI-Kompetenz eingetragen haben. Das Repository wird laufend ergänzt, ist jedoch nicht rechtsverbindlich. Weiters bilden die darin enthaltenen Praktiken keine Garantie zur Compliance mit Art 4 AI Act, allerdings stellen sie eine gute Orientierung dar, welche Maßnahmen zur Sicherstellung von KI-Kompetenz in unterschiedlichen Branchen bereits ergriffen werden. Häufig genannte Praktiken umfassen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne eLearning-Plattformen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne Weiterbildungen und Trainingsprogramme,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Kenntnis-basierte Schulungen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Video-/Podcast-Reihen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;spielebasierte Trainings,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Erstellung von KI-Verhaltenskodizes und Risikobewertungssystemen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;eigene Chatbots zum Training im Umgang mit Sprachmodellen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Denkbar ist überdies die Teilnahme an externen Fortbildungen und Schulungen, die Entwicklung von internen Richtlinien (&amp;quot;KI-Guidelines&amp;quot;) oder die Schaffung von sog &amp;quot;KI-Beauftragten&amp;quot; in der Organisation. Ob die Schulungsmaßnahmen fortlaufend zu erfolgen haben, ist rechtlich nicht vorgeschrieben, wird allerdings anzunehmen sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Dieser Ansicht folgend: &#039;&#039;Siglmüller&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 4 KI-Kompetenz Rz 5.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Ebensowenig sind die genauen Inhalte der Kompetenzvermittlungsmaßnahmen definiert. Es kann jedenfalls davon ausgegangen werden, dass diese zielgruppengerecht und zugeschnitten auf unterschiedliche Bedürfnisse erfolgen sollten. Weiters werden sie sich bei manchen Branchen, KI-Einsatzgebieten oder Personengruppen nicht lediglich auf rechtliche oder technische Anforderungen beschränken, sondern ebenso soziale und ethische Komponenten umfassen. Bei der Entwicklung und Nutzung von GPAI-Modellen wird beispielsweise die Vermittlung von Kenntnissen im Zusammenhang mit Urheberrecht, Datenschutz, &amp;quot;Bias&amp;quot; (Verzerrungen) oder &amp;quot;Halluzinationen&amp;quot; (erfundene falsche Ausgaben) sinnvoll sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger,&#039;&#039; Wissenskultur im KI-Zeitalter – eine Auseinandersetzung mit der KI-Kompetenz nach Art 4 AI Act und ihren praktischen Implikationen, ZIIR 2025, 250.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die EU-Kommission hat darüber hinaus eine [https://digital-strategy.ec.europa.eu/de/faqs/ai-literacy-questions-answers &amp;quot;FAQ-Seite&amp;quot;] mit Fragen und Antworten zur KI-Kompetenz angelegt, um einen besseren Überblick über die Anforderungen zu geben.&amp;lt;/mark&amp;gt;    &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten, &amp;lt;mark&amp;gt;da sie besonders schädlich sind, enormes Missbrauchspotenzial aufweisen und im Widerspruch zu europäischen Grundrechten und Grundfreiheiten stehen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 28 AI Act.&amp;lt;/mark&amp;gt; MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt; (Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt; Folgende Praktiken sind davon umfasst: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Praktik&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Nicht erfasste Praktiken&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsgrundlage&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Unterschwellige Beeinflussung außerhalb des Bewusstseins oder manipulative/täuschende Techniken&#039;&#039;&#039;, wodurch die freie Entscheidungsfähigkeit von Personen beeinträchtigt wird und ein Schaden mit hinreichender Wahrscheinlichkeit eintritt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ableitung sensibler Informationen aus Gehirnen von Nutzern über Maschine-Gehirn-Schnittstellen&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 29 AI Act sowie Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 66.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Chatbots, die zur Selbstverletzung verleiten&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 87.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Unterschwellige visuelle oder auditive Reize bzw generelle sensorische Manipulation&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 65 und 68.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erlaubt ist hingegen der Einsatz eines KI-Systems, das personalisierte Empfehlungen auf der Grundlage transparenter Algorithmen und Nutzerpräferenzen verwendet, und sich nicht absichtlich manipulativer Techniken bedient.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 128.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit a&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Ausnutzen der Vulnerabilität/Schutzbedürftigkeit&#039;&#039;&#039; aufgrund des Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine KI-Begleit-App, die durch gewisse Sprachmuster und Verhaltensweisen gezielt emotionale Abhängigkeiten und ungesunde Bindungen bei älteren Menschen erzeugt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-gestütztes Spielzeug, das Kinder zu riskanten Herausforderungen ermutigt oder durch süchtig machende Techniken zu übermäßigem Spielen anregt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte &amp;quot;Grooming-Praktiken&amp;quot; (gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht), um Mädchen mit Behinderung im Internet anzusprechen und zu manipulieren&amp;lt;ref&amp;gt;Vgl Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 88 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Kinder beim Lernen einer Fremdsprache durch den Einsatz unterschwelliger Techniken unterstützen soll, sofern sie transparent arbeitet und die Nutzerautonomie wahrt.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Benommenheit und Ermüdung bei Fahrern erkennen und sie im Einklang mit den Sicherheitsvorschriften mit Warnmeldungen auf Ruhepausen hinweisen, gelten ebenso nicht als Ausnutzung von Vulnerabilitäten.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 130ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit b&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social scoring&#039;&#039;&#039; (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Verwendung eines KI-Systems zur Schätzung der Betrugswahrscheinlichkeit bei Empfängern von Haushaltszulagen durch das Sozialamt, das sich auf Merkmale stützt, die in sozialen Kontexten ohne offensichtlichen Zusammenhang mit oder Relevanz für die Bewertung von Betrug erhoben oder abgeleitet werden, wie zB ein Ehepartner mit einer bestimmten Staatsangehörigkeit oder ethnischen Herkunft, der Besitz eines Internetanschlusses, das Verhalten auf sozialen Plattformen oder die Leistung am Arbeitsplatz etc.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems durch eine öffentliche Stelle, um für die Früherkennung gefährdeter Kinder anhand von Kriterien wie der psychischen Gesundheit und Arbeitslosigkeit der Eltern, aber auch anhand von aus verschiedenen Kontexten abgeleiteten Informationen über das soziale Verhalten der Eltern Familienprofile zu erstellen. Auf der Grundlage der erzielten Bewertung werden Familien für Kontrollen ausgewählt und als „gefährdet“ geltende Kinder werden aus ihren Familien genommen, unter anderem auch in Fällen geringfügiger Übertretungen seitens der Eltern, wie zB gelegentlich verpasste Arzttermine oder verhängte Verkehrsstrafen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine Regierung führt ein umfassendes KI-gestütztes System ein, das die Bürgerinnen und Bürger auf der Grundlage ihres Verhaltens in verschiedenen Lebensbereichen wie sozialen Interaktionen, Online-Aktivitäten, Kaufgewohnheiten und Pünktlichkeit bei der Begleichung von Rechnungen überwacht und einstuft. Menschen mit einer niedrigeren Bewertung müssen damit rechnen, dass sie eingeschränkten Zugang zu öffentlichen Dienstleistungen erhalten, höhere Zinsen auf Kredite zahlen und auf Reisen und bei der Suche nach einer Wohnung oder sogar einem Arbeitsplatz Schwierigkeiten haben.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 166 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Bonitätsprüfung natürlicher Personen auf Basis persönlicher Merkmale wie dem Einkommen vor Vergabe eines Kredits.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basierte Erhebung von Geschwindigkeitsüberschreitungen oder hochriskantem Fahrverhalten, die zur Erhöhung der KFZ-Versicherungsprämien führen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte gezielte kommerzielle Werbung fällt nicht in den Anwendungsbereich, wenn sie auf relevanten Daten (z. B. Nutzerpräferenzen) beruht, im Einklang mit den Rechtsvorschriften der Union über Verbraucherschutz, Datenschutz und digitale Dienste erfolgt und nicht zu einer Schlechterstellung oder Benachteiligung führt, die in keinem angemessenen Verhältnis zur Tragweite des sozialen Verhaltens des Nutzers steht (z. B. ausbeuterische und unfaire differenzierte Preisgestaltung).&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 177.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit c&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Bewertung des Risikos, dass eine Person eine Straftat&#039;&#039;&#039; begeht (ausschließlich aufgrund von Profiling)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Eine Polizeidienststelle verwendet KI-gestützte Risikobewertungsinstrumente, um das Risiko zu bewerten, dass kleine Kinder und Jugendliche an „künftigen Gewalttaten und Eigentumsdelikten“ beteiligt sein werden. Das System bewertet Kinder auf der Grundlage ihrer Beziehungen zu anderen Menschen und deren vermeintlichen Risikoniveaus, dh es wird eventuell davon ausgegangen, dass bei Kindern ein höheres Risiko für die Begehung von Straftaten besteht, einfach weil sie mit einer anderen Person wie einem Geschwisterkind oder einem Freund verbunden sind, bei der eine hohe Risikobewertung vorliegt. Das Risikoniveau der Eltern kann sich ebenfalls auf das Risikoniveau eines Kindes auswirken.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 202.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Standortbezogene oder geodatenbasierte Vorhersagen oder ortsbezogene Verbrechensvorhersagen (zB KI-System zur Berechnung der Kriminalitätswahrscheinlichkeit in bestimmten Stadtgebieten oder von Schmuggelrouten)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Unterstützung der durch Menschen durchgeführten Bewertung, die sich auf objektive und überprüfbare Tatsachen stützt, die in Zusammenhang mit einer kriminellen Aktivität stehen (zB Profiling zur Vorhersage gefährlichen Verhaltens in einer Menschenmenge, KI-basiertes Profiling von Personen, gegen die bereits ein Verdacht besteht, der auf mehreren überprüfbaren, objektiven Tatsachen beruht).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basiertes Profiling in Bezug auf juristische Personen&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur individuellen Vorhersage von Ordnungswidrigkeiten (zB Bagatellverkehrsdelikte)&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 212 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit d&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erstellung/Erweiterung von &#039;&#039;&#039;Datenbanken&#039;&#039;&#039; zur Gesichtserkennung durch &#039;&#039;&#039;ungezieltes Auslesen von Gesichtsbildern&#039;&#039;&#039;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen für Gesichtserkennungssoftware sammelt Bilder von Gesichtern, die mit einem „automatisierten Bildausleser“, der das Internet durchsucht und Bilder mit menschlichen Gesichtern erkennt, aus sozialen Medien (zB Facebook, X) ausgelesen wurden. Der Bildausleser sammelt diese Bilder mit allen damit verbundenen Informationen (wie der Quelle des Bildes (URL), der Geolokalisierung und manchmal den Namen der einzelnen Personen). Die Gesichtsmerkmale werden dann aus den Bildern extrahiert und in mathematische Darstellungen umgewandelt, die für die Indexierung und den künftigen Vergleich mit Hashtags versehen werden. Wenn ein Nutzer das Bild einer Person in das KI-System hochlädt, wird dieses System bestimmen, ob dieses Bild mit einem Gesicht in der Datenbank übereinstimmt.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 232.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Das ungezielte Auslesen anderer biometrischer Daten als Gesichtsbilder (zB Stimmaufnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Gesichtsbilddatenbanken, die nicht für die Erkennung von Personen verwendet werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Gesichtsbilder aus dem Internet sammeln, um KI-Modelle zur Erzeugung neuer Bilder fiktiver Personen zu entwickeln&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit e&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Emotionserkennungssysteme&#039;&#039;&#039; am Arbeitsplatz oder in Bildungseinrichtungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das beispielsweise aus Gesten, Stirnrunzeln oder fehlendem Lächeln ableitet, dass ein Mitarbeiter unglücklich, traurig oder gegenüber den Kunden wütend ist&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Systeme, die aus Stimmführung oder Körpersprache ableiten, dass ein Schüler zornig und im Begriff ist, gewalttätig zu werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Emotionen aus Tastenanschlägen (Art des Tippens), Gesichtsausdrücken, Körperhaltungen oder Bewegungen ableitet, beruht auf biometrischen Daten und fällt in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die den emotionalen Ton in hybriden Arbeitsteams überwachen, indem sie Emotionen aus Stimm- und Bildaufnahmen hybrider Videokonferenzen erkennen und ableiten, was in Regel der Förderung des sozialen Bewusstseins, des Managements emotionaler Dynamik und der Konfliktverhütung dienen würde&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems bei Online-Prüfungen zur Erkennung von Emotionen wie Erregungs- und Angstzustände&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung zur Bewertung des Wohlbefindens, des Motivationsniveaus und der Arbeits- oder Lernzufriedenheit von Studierenden oder Arbeitnehmern.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der Einsatz von KI-Erkennungssystemen, um auf die Ermüdung eines Berufspiloten oder -fahrers zu schließen, ihn zu warnen und ihm zu empfehlen, zur Vermeidung von Unfällen Pausen einzulegen, da Emotionserkennung keine physischen Zustände wie Schmerzen oder Ermüdung einschließt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das aus schriftlichen Texten (Analysen von Inhalt und Stimmung) Emotionen ableitet, um den Stil oder den Ton eines bestimmten Artikels zu bestimmen, beruht nicht auf biometrischen Daten und fällt daher nicht in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Werden Emotionserkennungssysteme nur zu persönlichen Schulungszwecken eingesetzt, sind sie zulässig, sofern die Ergebnisse nicht Personen mit Personalverantwortung zur Verfügung gestellt werden und keine Auswirkungen auf das Arbeitsverhältnis haben&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die durch eine Bildungseinrichtung erfolgende Verwendung einer KI-gestützten Software zur Verfolgung der Augenbewegungen bei Online-Prüfungen Studierender, um den Fixierungspunkt und die Bewegung der Augen zu verfolgen (um beispielsweise zu erkennen, ob unerlaubtes Material verwendet wird), ist nicht verboten, da das System Emotionen weder erkennt noch ableitet&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung aus medizinischen Gründen zur Unterstützung von Arbeitnehmern oder Studierenden mit Autismus und zur Verbesserung der Barrierefreiheit für blinde oder gehörlose Menschen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit f&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Kategorisierung,&#039;&#039;&#039; Ableitung von sensiblen Daten (religiöse Weltanschauung, politische Einstellung)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Personen, die auf einer Plattform sozialer Medien aktiv sind, nach ihrer angenommenen politischen Ausrichtung kategorisiert, indem es die biometrischen Daten der von ihnen auf die Plattform hochgeladenen Fotos analysiert, um ihnen gezielte politische Nachrichten zu übermitteln&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;ein System zur biometrischen Kategorisierung, das für sich in Anspruch nimmt, die religiöse Ausrichtung einer Person aus ihren Tätowierungen oder ihrem Gesicht ableiten zu können.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 280 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die mit der Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze, auch zu Strafverfolgungszwecken, befasst sind (zB bei Verdacht auf Darstellungen sexuellen Kindesmissbrauchs)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;die Kategorisierung von Patienten, bei der Bilder nach ihrer Haut- oder Augenfarbe verwendet werden, für medizinische Diagnosen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 284 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit g&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Echtzeit-Fernidentifizierungssysteme&#039;&#039;&#039; in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die polizeiliche Verwendung von Systemen zur biometrischen Echtzeit-Fernidentifizierung zu dem Zweck, Ladendiebe zu identifizieren und ihre Gesichtsbilder mit Kriminaldatenbanken zu vergleichen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 328.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung von Echtzeit-Gesichtserkennungstechniken durch die Polizei nach einem schweren Terroranschlag auf einen Weihnachtsmarkt mit zwölf Toten, um den Täter zu identifizieren und festzustellen, wohin er flieht. In diesem Zusammenhang nutzen sie auch die Echtzeit-Gesichtserkennungstechnik des nahe gelegenen Bahnhofs und der Zielbahnhöfe der Züge, die kurz nach dem Angriff von dort abgehen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 354.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit h&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&amp;lt;br /&amp;gt;&lt;br /&gt;
Einige dieser Praktiken sind darüber hinaus bereits nach anderen Rechtsvorschriften verboten, so beispielsweise gewisse manipulative und täuschende Techniken als &amp;quot;dark patterns&amp;quot; nach dem [[Digital Services Act (DSA)|Digital Services Act]] (gilt nur für bestimmte Plattform-Anbieter) oder die Verarbeitung biometrischer Daten zur Identifizierung einer Person nach Art 9 Abs 1 DSGVO, sofern keine der in Abs 2 genannten Ausnahmen vorliegt. Gemäß der neuen Plattformarbeitsrichtlinie&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Richtlinie (EU) 2024/2831 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit, ABl L 11. 11. 2024.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;, die bis Dezember 2026 in nationales Recht umzusetzen ist, ist überdies der Einsatz von automatisierten Überwachungs- und Entscheidungssystemen zur Erfassung personenbezogener Daten über den emotionalen oder psychischen Zustand einer Person (Emotionserkennung) verboten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;MwN &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2024) Art 5 Rz 104.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act klassifiziert Hochrisiko-KI-Systeme in Art 6. Dabei kennt er zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige&amp;quot; Hochrisiko-KI-Systeme bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei folgenden Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder stellt selbst ein solches Produkt dar&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten: bspw biometrische Identifizierung, kritische Infrastrukturen, grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle, Justiz und demokratische Prozesse).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis einer Entscheidungsfindung, an der das System beteiligt ist, wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot; &amp;lt;mark&amp;gt;Als Profiling gilt dabei iSd Art 4 Abs 4 DSGVO jede automatisierte Verarbeitung personenbezogener Daten, die darin besteht, bestimmte persönliche Aspekte einer Person zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, Gesundheit, persönliche Vorlieben, Zuverlässigkeit, Verhalten etc. zu analysieren oder vorherzusagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Europäische Kommission hat im Rahmen von Public Consultations unter anderem auch Rückmeldungen zu Anforderungen an Hochrisiko-KI-Systeme eingeholt, die eine Grundlage für Leitlinien bilden sollen, welche im Februar 2026 veröffentlicht werden sollen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;European Commission, Commission launches public consultation on high-risk AI systems, https://digital-strategy.ec.europa.eu/en/news/commission-launches-public-consultation-high-risk-ai-systems (Stand 6.6.2025).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Pflichten für Betreiber von Hochrisiko-KI-Systemen&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Betreiberpflichten nach Art 26 AI Act&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis &amp;lt;mark&amp;gt;([https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#KI-Kompetenz/AI_literacy_(Art_4_AI_Act) &amp;quot;KI-Kompetenz&amp;quot;] nach Art 4&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 40. &amp;lt;/ref&amp;gt;)&amp;lt;/mark&amp;gt; verfügen und ihnen die erforderliche Unterstützung zukommen lassen. &lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von automatisiert erzeugten &#039;&#039;&#039;Protokollen&#039;&#039;&#039; &amp;lt;mark&amp;gt;für einen Zeitraum von zumindest 6 Monaten (wobei hier entgegenstehende datenschutzrechtliche Regelungen vorgehen würden&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 42.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;)&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, vor Verwendung oder Inbetriebnahme des Hochrisiko-KI-Systems am Arbeitsplatz. &amp;lt;mark&amp;gt;Dies umfasst sowohl den Einsatz von &amp;quot;eingebetteten&amp;quot; als auch &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Weiters sind die Mitwirkungspflichten des Betriebsrats zu berücksichtigen (vgl §§ 96 f ArbVG). Nicht umfasst sind wahrscheinlich Informationspflichten gegenüber Bewerbern, da diese tendenziell nicht unter den von dieser Bestimmung geforderten &amp;quot;Arbeitnehmer-Begriff&amp;quot; fallen&amp;lt;/mark&amp;gt;.&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet. &amp;lt;mark&amp;gt;Diese Bestimmung gilt lediglich für den Einsatz von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen nach Art 6 Abs 2 iVm Anhang III.Die danach mitzuteilende Information sollte die Zweckbestimmung und die Art der getroffenen Entscheidung beinhalten (vgl ErwGr 93) sowie - nach einer hier vertretenen Auffassung - eine vorab Information über das Recht auf Erklärung nach Art 86 AI Act, welches von KI-Entscheidungen Betroffenen das Recht zugesteht, unter gewissen Voraussetzungen vom Betreiber eine klare und aussagekräftige Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess sowie zu den wichtigsten Elementen der getroffenen Entscheidung zu erhalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe die entsprechende Argumentationslinie im Detail: &#039;&#039;Research Institute&#039;&#039;, Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025) 100 ff, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.  &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 27 Abs 4 macht überdies die Verzahnung der Grundrechte-Folgenabschätzung (GRFA) mit anderen Folgenabschätzungen deutlich und schreibt bspw vor, dass bei Vorliegen einer Datenschutz-Folgenabschätzung nach Art 35 DSGVO die GRFA diese ergänzen bzw in diese integriert werden solle.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Piltz/Zwerschke&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 27 Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme Rz 32.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Sowohl die Verpflichtungen nach Art 26 als auch die Durchführung einer GRFA nach Art 27 treffen den Betreiber unabhängig davon, ob jemand (bspw Betroffene) deren Einhaltung einfordern. Im Unterschied dazu enthält der AI Act in den Artt 85 ff sog &amp;quot;Betroffenenrechte&amp;quot;, die aktiv von betroffenen Personen geltend zu machen sind. Dazu zählt insbesondere das [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Recht auf Erklärung nach Art 86], welches das einzige Betroffenenrecht darstellt, das direkt gegen den Betreiber durchsetzbar ist.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführer oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn die genannten Personen ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen;&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt;&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das &#039;&#039;nicht&#039;&#039; als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird.&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter (Erstanbieter) nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat jedoch mit dem neuen Anbieter zusammenzuarbeiten, insb Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI Act muss beachtet werden, dass die Rollenverteilung eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters erfolgt, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden &amp;lt;mark&amp;gt;sowie den Anforderungen an die Barrierefreiheit genügen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots, &amp;lt;mark&amp;gt;Sprachassistenten, Social Bots)&amp;lt;/mark&amp;gt;, sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Pflicht kann entfallen, wenn die Interaktion mit dem KI-System aus Sicht einer angemessen informierten, aufmerksamen und verständigen Person offensichtlich ist oder beim Einsatz von KI-Systemen, die für die Strafverfolgung zugelassen sind.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 43.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
*&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 40.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Chatbots&#039;&#039;&#039; können durch einen textlichen Hinweis zu Beginn des Gesprächs oder ein dauerhaft angezeigtes grafisches Symbol vorgestellt werden.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Bei &#039;&#039;&#039;Voicebots&#039;&#039;&#039; kommt eine der Interaktion vorausgehende Ansage, welche auf den KI-Einsatz hinweist, in Betracht.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social Bots&#039;&#039;&#039; können eine Information vor und mit jeder Interaktion des Bots in sozialen Netzwerken erfordern, da das System stets mit einem neuen Personenkreis in Interaktion tritt (zB AI-Influencer).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Das KI-Büro hat am 5. November 2025 Arbeiten an einem Verhaltenskodex in Bezug auf die Kennzeichnung von KI-generierten Inhalten aufgenommen. Die entsprechenden Leitlinien werden in einem siebenmonatigen Prozess, der sich insbesondere durch die Einbindung von relevanten Stakeholdern und öffentliche Konsultationen auszeichnen soll, erarbeitet werden. Näheres unter: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Mögliche Methoden wären bspw Wasserzeichen, Metadatenidentifizierungen, Kryptografische Methoden (zB &amp;quot;Hashing&amp;quot;), Protokollierungsmethoden oder Fingerabdrücke.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 133 Satz 4 sowie mwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 84 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Denkbar ist bspw eine Umsetzung in Form eines sichtbaren Wasserzeichens, eines textlichen Hinweises, durch Hinzufügen von sog C2PA-Content Credentials&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Die C2PA („Coalition forContent Provenanceand Authenticity“) ist ein branchenübergreifendes Non-profit-Projekt, das die Entwicklung gemeinsamer technischer Standards zur Ermittlung der Herkunft von digitalen Inhalten zum Ziel hat. Siehe dazu https://c2pa.org/. So hat sich bspw LinkedIn bei der Erkennung KI-generierter Inhalte diesen Standards unterworfen: https://www.linkedin.com/help/linkedin/answer/a6282984. MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 150.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;oder bei Audioinhalten durch eine Ansage zu Beginn des Audioinhalts.&amp;lt;ref&amp;gt;&#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 148 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Verpflichtung entfällt, wenn die betreffenden Inhalte vor ihrer Veröffentlichung einer menschlichen oder redaktionellen Kontrolle unterzogen wurden und eine Person die redaktionelle Verantwortung dafür trägt. Da die Anforderungen an die menschliche bzw redaktionelle Kontrolle nicht konkretisiert werden, unterwerfen sich bspw im journalistischen Bereich zahlreiche Medien freiwilligen Leitlinien (so etwa die [https://www.blm.de/files/pdf2/ki-leitlinien.pdf Leitlinien des Medienrats der Bayerischen Landeszentrale für neue Medien (BLM) zum Einsatz von Künstlicher Intelligenz im Journalismus]).&amp;lt;ref&amp;gt;MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 163 f.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als &amp;quot;KI-Systeme mit minimalem Risiko&amp;quot; bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf den sprunghaften Durchbruch generativer KI-Modelle, die für viele verschiedene Zwecke eingesetzt werden können, in den Jahren 2022 und 2023 wurden unter Durchbrechung des bisherigen zweck- und risikoorientierten Regelungsansatzes im Entwurfsstadium des AI Act nachträglich Regeln für solche Modelle eingefügt. Ein GPAI-Modell (in früheren Entwurfsfassungen foundation model/Basismodell) ist dabei in Art 3 Z 63 AI Act definiert als ein KI-Modell, das&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;das eine erhebliche allgemeine Verwendbarkeit aufweist,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;In den von der EU-Kommission im Juli 2025 veröffentlichten Leitlinien zu GPAI-Modellen werden eine kumulierte Menge der für das Training verwendeten Berechnungen von mehr als 10&amp;lt;sup&amp;gt;23&amp;lt;/sup&amp;gt; FLOPs und die Fähigkeit, geschriebene oder gesprochene Sprache (aber auch Bilder oder Videos aus Text) zu generieren, als Anhaltspunkte für das Vorliegen eines GPAI-Modells angegeben, es sei denn, das Modell erfüllt die oben angegebenen Kriterien der Allgemeinheit nicht (zB weil es spezifisch nur für die Transkription von Sprache in Text trainiert wurde).&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 13ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Somit ist davon auszugehen, dass die üblichen [https://de.wikipedia.org/wiki/Large_Language_Model LLM]s, wie die GPT-Serie von OpenAI, die Gemini-Serie von Google oder die Claude-Serie von Anthropic als GPAI-Modelle im Sinne dieser Definition einzustufen sind.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt.&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Abgrenzung der Rollen entlang der Wertschöpfungskette&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&amp;lt;mark&amp;gt;In Bezug auf GPAI-Modelle können drei Rollen unterschieden werden:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Anbieter (Provider):&#039;&#039;&#039; Entwickeln, trainieren und veröffentlichen Modelle. Sie tragen primär Verantwortung für Modellqualität, Sicherheit und Dokumentation.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Anbieter (Downstream Provider):&#039;&#039;&#039; Feintunen, modifizieren oder integrieren Modelle in KI-Systeme.&amp;lt;/mark&amp;gt; &lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Betreiber (Deployer):&#039;&#039;&#039; Nutzen ein KI-System im praktischen Einsatz.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Ein wesentlicher Zweck der Regulierung von GPAI-Modellen ist, dass nachgelagerte Anbieter, ein GPAI-Modell in ihr KI-System integrieren, Informationen über dieses Modell erhalten und darauf basierend ihren eigenen Verpflichtungen (nach den allgemeinen Regeln des AI Act für KI-Systeme) nachkommen zu können.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme der Hauptgegenstand der Regulierung durch den AI Act sind (risikobasierten Ansatz), unterliegen auf Ebene der Modelle nur GPAI-Modelle einer direkten Regulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese Regulierung unterscheidet zwischen GPAI-Modellen ohne und GPAI-Modellen mit systemischem Risiko. Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act), &lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über &amp;quot;Fähigkeiten mit hohem Wirkungsgrad&amp;quot; verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; beträgt. Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act). Oder&lt;br /&gt;
* wenn die Kommission in einer Entscheidung festgestellt hat, dass es über solche Fähigkeiten oder eine solche Wirkung verfügt (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden. &lt;br /&gt;
* Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
* eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
* eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
* mögliche systemische Risiken auf Unionsebene bewerten und mindern,&lt;br /&gt;
* einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
* ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten.&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung des AI Act beitragen sollen.&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von GPAI-Modellen sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 56 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 10. Juli 2025 wurde der Praxisleitfaden &amp;quot;[https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai General-Purpose AI Code of Practice]&amp;quot; veröffentlicht und von der EU-Kommission und vom KI-Gremium am 1. August 2025 gem Art 56 Abs 6 AI Act als angemessen bewertet.&amp;lt;ref&amp;gt;Europäische Kommission, Erstellung eines allgemeinen KI-Verhaltenskodex, https://digital-strategy.ec.europa.eu/de/policies/ai-code-practice.&amp;lt;/ref&amp;gt; Zu diesem wurde&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;auch eine [https://digital-strategy.ec.europa.eu/de/faqs/questions-and-answers-code-practice-general-purpose-ai FAQ-Seite] veröffentlicht. Zusätzlich hat die EU-Kommission am 18. Juli 2025 auch [https://ec.europa.eu/newsroom/dae/redirection/document/118340 Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act] veröffentlicht.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Für Anbieter von GPAI-Modellen, die den GPAI Code of Practice unterzeichnen und diesen einhalten, können dadurch nachweisen, dass sie den AI Act einhalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl Art 50 Abs 7 und Art 53 Abs 4 AI Act sowie Europäische Kommission, Der General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/de/policies/contents-code-gpai.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Damit soll Rechtssicherheit geschaffen werden. Es handelt sich dabei aber um eine freiwillige Maßnahme und es steht Anbietern von GPAI-Modellen somit frei, die entsprechenden Bestimmungen des AI Act auch auf andere Weise umzusetzen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Auf der oben verlinkten Website des GPAI Code of Practice ist angegeben, welche Anbieter von GPAI-Modellen diesen unterzeichnet haben. Darunter finden sich die meisten Anbieter der gängigen LLMs, wie Anthropic, Google, OpenAI und Mistral AI.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der AILD und PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Stand November 2025 wurde in Österreich noch keine Behörde als zuständige Marktüberwachungsbehörde eingerichtet oder benannt. Bereits mit 2. November 2024 sind jedoch einige Behörden und öffentliche Stellen im Grundrechtsbereich gemäß Art 77 Abs 2 mit Aufsichts- und Durchsetzungsbefugnissen für Grundrechte insb im Zusammenhang mit Hochrisiko-KI ausgestattet worden, darunter die Volksanwaltschaft, die Datenschutzbehörde, die Arbeiterkammer, die Gleichbehandlungskommission, die Behindertenanwaltschaft, die KommAustria uvm.&amp;lt;ref&amp;gt;Mehr dazu unter: https://www.digitalaustria.gv.at/themen/kuenstliche-intelligenz/behoerden-art77-ai-act.html.&amp;lt;/ref&amp;gt; Dabei treffen auch die (künftig) zuständige Marktüberwachungsbehörde umfassende Kooperationspflichten, wie etwa die Meldung schwerwiegender Grundrechtsvorfälle in diesem Kontext an die genannten Einrichtungen (vgl Art 73 Abs 7 und Art 79 Abs 2 AI Act).&amp;lt;ref&amp;gt;Vgl &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 103, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Dazu hat die Kommission entsprechende Leitlinien zu veröffentlichen, die sich gerade in Ausarbeitung befinden.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung im Einzelfall betroffen sind,&lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (&amp;lt;mark&amp;gt;Recht auf Erläuterung der Entscheidungsfindung im Einzelfall gemäß Art 86 Abs 1 AI Act oder auch gemeinhin als &#039;&#039;&#039;&amp;quot;Recht auf Erklärung&amp;quot;&#039;&#039;&#039; bezeichnet&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157; &#039;&#039;Poindl/Müller,&#039;&#039; Das Recht auf Erklärung im AI Act. Betroffenenrecht mit Potenzial oder Papiertiger?, VbR 2025, 40. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei ist es unerheblich, ob das KI-System die Entscheidung gänzlich autonom getroffen hat oder unterstützend beteiligt war, es darf lediglich keine untergeordnete Rolle im Entscheidungsprozess gespielt haben.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Steht das Recht auf Erklärung zu, hat die betroffene Person einerseits das Recht, eine Erklärung über die Rolle des KI-Systems im Entscheidungsprozess zu verlangen, worunter einerseits Informationen über die zentralen Aufgaben des Systems im Entscheidungsprozess fallen (zB Zielgruppenselektion, Datenanalyse, Vorgabe der Entscheidung usw.) und andererseits auch der Grad dessen Beteiligung (gering, mittel, hoch), was umgekehrt auch den Grad menschlicher Beteiligung an der Entscheidungsfindung erfordert. Weiters sind die wichtigsten Elemente der Entscheidung zu beauskunften, beispielsweise Eingabedaten, wesentliche Entscheidungsgründe, kontrafaktische Erklärungen (inwiefern hätten andere Parameter zu einer anderen Entscheidungen geführt), die Auswirkungen der Entscheidung, die Gewichtung der einzelnen Kriterien und die Verarbeitungslogik (Informationen über die grobe Funktionsweise des KI-Systems, keine komplette Offenlegung des algorithmischen Codes). Weiters muss die Erklärung präzise, korrekt, verständlich, nicht zu technisch (keine komplexen mathematischen Formeln), aber dennoch vollständig sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letzter Referenzpunkt ist stets, ob die betroffene Person auf Basis der erlangten Informationen weitere Rechte geltend machen kann, da das Recht auf Erklärung auch oft als &amp;quot;Türöffner&amp;quot; für die Geltendmachung weiterer Rechte dient (so wird bspw eine Klage wegen Diskriminierung in einem Entscheidungsprozess erst erhoben werden können, wenn die betroffene Person genügend Informationen hat, um die Diskriminierung darzulegen, bspw die Gewichtung von bestimmten persönlichen Merkmalen, die ausschlaggebend für die Entscheidung war).&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Es handelt sich somit um ein nachgelagertes bzw &#039;&#039;ex post&#039;&#039; Recht, das nicht nur globale, abstrakte Systemerklärungen erfordert, sondern auch lokale, einzelfallbezogene Auskünfte umfasst, damit die betroffene Person die Informationen wirksam nutzbar machen kann .&amp;lt;/mark&amp;gt; Das Recht auf Erklärung steht Betroffenen gegenüber Betreibern und nicht gegenüber Anbietern zu, wobei letztere wiederum Betreibern entsprechende Betriebsanleitungen bereitzustellen haben (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung gilt nicht, sofern Ausnahmen nach Unionsrecht oder nationalem Recht bestehen (Art 86 Abs 2). Zu denken wäre hier etwa an Beschränkungen der Informationspflicht aufgrund geschützter Betriebs- oder Geschäftsgeheimnisse, wobei diese nicht zu einer pauschalen Auskunftsverweigerung führen dürfen.&amp;lt;/mark&amp;gt; Art 86 Abs 1 gilt überdies nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung Subsidiarität] ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung ist immer dann relevant, wenn Unternehmen, Behörden etc. KI in Entscheidungsfindungsprozessen einsetzen, die Auswirkungen auf bestimmte Personen(-gruppen) haben. Zu denken ist etwa an KI-basierte Entscheidungen über die Vergabe von Krediten, über die Berücksichtigung einer Bewerbung, über die Höhe einer Versicherungsprämie oder personalisierte Werbeschaltungen auf Basis von Emotionserkennung.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zum Umgang mit dem Recht auf Erklärung in der Praxis hat das &#039;&#039;Research Institute&#039;&#039; im Auftrag des Bundesministeriums für Arbeit, Soziales, Gesundheit, Pflege und Konsumentenschutz Leitlinien entwickelt:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:f1685e43-21b8-48f3-9fe5-2c61898960ae/Final_Aufkl%C3%A4rung%204.0_Unternehmensleitfaden_April2025.pdf Leitfaden für Unternehmen] im Umgang mit Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:40ba630c-39af-4b8d-8768-a69192427b09/Final_Aufkl%C3%A4rung%204.0_Konsumentinnenleitfaden_April2025.pdf Leitfaden für Konsument:innen und ihre Interessenvertretungen] zur Durchsetzung ihrer Rechte&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf Theoretischer Grundlagenbericht] zur wissenschaftlichen Fundierung der ausgesprochenen Empfehlungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Grundlegende Überschneidungen zwischen dem AI Act und der Datenschutz-Grundverordnung (DSGVO)&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Da KI-Systeme bzw -Modelle häufig personenbezogene Daten verarbeiten - bspw im Rahmen des Trainings eines KI-Modells oder zur Entscheidungsunterstützung in Bezug auf konkrete Personen -, stellt sich unweigerlich die Frage nach dem Zusammenwirken des AI Act mit der DSGVO.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Der Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA) des LfDI Baden-Württemberg enthält eine Auswahl von Orientierungshilfen verschiedener Aufsichtsbehörden und Gremien zu den Schnittstellen von DSGVO und KI: https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0. MwN &#039;&#039;Holtz/Ledendal,&#039;&#039; AI Data Governance - Overlaps Between the AI Act and the GDPR (iE, 2026): https://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1996843&amp;amp;dswid=-4177 sowie der [https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/DE-Bridge-Blueprint-v.0.9.pdf &amp;quot;Bridge Blueprint&amp;quot;-Entwurf] zur einheitlichen Anwendung von Datenschutz- und KI-Regulierung des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI).&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letztere knüpft ihren Anwendungsbereich nämlich an die Verarbeitung personenbezogener Daten iSd Art 4 Abs 1 DSGVO, worunter alle Informationen zu verstehen sind, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Die DSGVO ist seit 2018 in Anwendung und verfolgt den Grundsatz, dass jegliche Verarbeitung personenbezogener Daten verboten ist, es sei denn, es liegt ein Erlaubnistatbestand nach Art 6 Abs 1 DSGVO vor. Für die Verarbeitung sog &amp;quot;sensibler Daten&amp;quot; nach Art 9 DSGVO (zB Gesundheitsdaten, die ethnische Herkunft, die religiöse Weltanschauung etc.) legt sie noch strengere Maßstäbe an. Damit verfolgt die DSGVO einen horizontalen sowie prinzipienbasierten Ansatz, wonach bei der Verarbeitung personenbezogener Daten bestimmte Anforderungen und Grundsätze einzuhalten sind, ungeachtet der verwendeten Technologie, des Sektors oder des Einsatzgebiets.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 32, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus orientiert sich die Verordnung daran, inwieweit eine bestimmte Datenverarbeitung ein Risiko für die Rechte und Freiheiten natürlicher Personen darstellt (&amp;quot;risikobasierter Ansatz&amp;quot;), wonach sich letztendlich die Strenge der von ihr vorgeschriebenen Verpflichtungen bemisst.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Der AI Act erkennt das Primat der DSGVO in Art 2 Abs 7 an und statuiert, dass er deren Anwendungsbereich unberührt lässt. Somit gehen im Falle der Verarbeitung personenbezogener Daten durch eine KI-Anwendung die Regelungen der DSGVO grundsätzlich vor, während der AI Act dem ergänzend eine produktsicherheitsrechtliche Komponente beifügt, die während der Entwicklung und des Einsatzes von KI zu beachten ist.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 33, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Überschneidungen beider Rechtsakte ergeben sich bspw, sobald ein KI-Modell mit personenbezogenen Daten &#039;&#039;&#039;trainiert&#039;&#039;&#039; werden soll. In diesem Fall braucht es eine Rechtsgrundlage nach Art 6 Abs 1 DSGVO (und ggf Art 9 DSGVO), wobei hier am ehesten die berechtigten Interessen des Verantwortlichen nach lit f leg cit infrage kommen. So hat sich bspw der Facebook-Mutterkonzern Meta auf berechtigte Interessen berufen, um sein Sprachmodell &amp;quot;LLaMA&amp;quot; hinter seiner &amp;quot;Meta AI&amp;quot; mit Nutzerdaten zu trainieren. Dagegen erhob die Verbraucherschutzzentrale NRW Antrag auf Erlass einer einstweiligen Verfügung, letztendlich entschied jedoch das OLG Köln in seinem Beschluss vom 23.05.2025 (15 UKl 2/25), dass sich Meta für das KI-Training mit Nutzerdaten auf berechtigte Interessen stützen könne.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://www.verbraucherzentrale.nrw/urteilsdatenbank/digitale-welt/olg-koeln-weist-eilantrag-der-verbraucherzentrale-nrw-gegen-meta-wegen-kitraining-zurueck-108065.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Umgekehrt ist laut Art 35 DSGVO immer dann eine Datenschutz-Folgenabschätzung durchzuführen, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat, insbesondere bei Verwendung neuer Technologien. Darunter fallen gemäß §2 Abs 2 Z 4 DSFA-V&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Verordnung der Datenschutzbehörde über Verarbeitungsvorgänge, für die eine Datenschutz-Folgenabschätzung durchzuführen ist (DSFA-V), BGBl. II Nr. 278/2018.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;insbesondere Datenverarbeitung unter Einsatz von künstlicher Intelligenz, welcher jedenfalls die Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung nach sich zieht. Somit löst auch der Einsatz von KI unter gewissen Voraussetzungen datenschutzrechtliche Pflichten aus.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: Digital Services Act (DSA) vs AI Act ===&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der DSA legt einheitliche Regeln für Vermittlungsdienste mit dem Ziel fest, ein vertrauenswürdiges, (rechts-)sicheres und vorhersehbares Online-Umfeld für Verbraucher und Unternehmen durch eine harmonisierte Plattformregulierung zu gewährleisten. Ebenso zielt das Regelwerk auf den Schutz sowie die Gewährleistung einer effektiven Grundrechtsausübung und normiert umfassende Verpflichtungen für Anbieter von Online-Diensten in Form eines abgestuften Regelungsansatzes, der die unterschiedlichen Compliance-Pflichten an die Art und Größe der jeweiligen Online-Dienste knüpft. Dabei kennt der DSA folgende Anbieterkategorien: Anbieter von allgemeinen Vermittlungsdiensten, Hostingdiensten, Online- sowie Transaktionsplattformen und sehr großen Online-Plattformen (VLOPs) und -Suchmaschinen (VLOSEs). Überschneidungen mit dem AI Act können sich auf zweierlei Weise ergeben: Einerseits können KI-Anwendungen zur Generierung oder Manipulation von Inhalten verwendet werden, die dann über Vermittlungsdienste geteilt werden. Andererseits können KI-Systeme das Kernangebot des Diensteanbieters ausmachen, in der Inhaltsmoderation eingesetzt werden oder Produkt- bzw Service-Empfehlungen auf Basis von Nutzerverhalten (&amp;quot;Empfehlungsalgorithmen&amp;quot;) schalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 48, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Allgemeine Synergien sind dem [[Digital Services Act (DSA)|Eintrag über den DSA]] zu entnehmen.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
* Weiters kann es bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act in Bezug auf die notwendige Risikoanalyse kommen. &amp;lt;mark&amp;gt;So fordern die Artikel 34 und 35 DSA die Analyse jener potenzieller systemischer Risiken, die sich durch das Design, die Funktion oder die Nutzung ihrer Services ergeben, insbesondere im Zusammenhang mit algorithmischen Systemen oder Systemen zur Inhaltsmoderation. Demgegenüber legt der AI Act in Art 17 die Verpflichtung für Anbieter von Hochrisiko-KI-Systemen zur Etablierung eines Risikomanagementsystems gemäß Art 9 AI Act fest und sieht spezielle Anforderungen für Anbieter von GPAI-Modellen mit systemischem Risiko vor (Art 55 Abs 1 lit b AI Act).&amp;lt;/mark&amp;gt; Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Im Fall von Anbietern von Hochrisiko-KI-Systemen sieht der AI Act sogar explizit die Möglichkeit vor, Risikomanagementprozesse nach anderen unionsrechtlichen Bestimmungen mit jenen nach dem AI Act zu kombinieren (vgl Art 9 Abs 10 AI Act).&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 49, &amp;lt;nowiki&amp;gt;https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Art 86 AI Act normierte Recht auf Erläuterung] besteht potentiell eine Subsidiarität gegenüber anderen Auskunftsansprüchen, insb der Auskunftspflicht nach Art 15 Abs 1 lit h DSGVO iVm Art 22 DSGVO. &amp;lt;mark&amp;gt;Demnach steht Personen, die von einer automatisierten Entscheidungsfindung im Einzelfall einschließlich Profiling betroffen sind, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie ähnlich erheblich beeinträchtigt, das Recht zu, neben allgemeinen Informationen über die Verarbeitung ihrer personenbezogenen Daten aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und Auswirkungen einer derartigen Verarbeitung zu verlangen. Inhaltlich&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;richtet sich der Auskunftsanspruch nach Art 15 Abs 1 lit h DSGVO gemäß rezenter EuGH-Judikatur insb auf die Erläuterung des Verfahrens und der Grundsätze, die bei der automatisierten Verarbeitung der personenbezogenen Daten der betroffenen Person zur Anwendung kamen und zu dem bestimmten Ergebnis geführt haben.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117, Rz 58. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Frage nach einer potenziellen Subsidiarität von Art 86 AI Act gegenüber den entsprechenden datenschutzrechtlichen Vorschriften hängt von unterschiedlichen Fallszenarien ab, in denen die jeweils verwendeten Technologien und verarbeiteten Datenkategorien zu unterschiedlichen Ergebnissen führen können:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 15 Abs 1 lit h iVm Art 22 DSGVO&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsfolge&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Hochrisiko-KI-Einsatz in Entscheidungsfindungsprozessen, in denen entweder keine personenbezogenen Daten gemäß Art 4 Z 1 DSGVO verarbeitet werden (zB Verarbeitung lediglich aggregierter Daten) oder keine vollautomatisierte Entscheidung iSd Art 22 DSGVO getroffen wird (etwa weil ein Mensch maßgeblich an der Entscheidungsfindung beteiligt ist)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Das Recht auf Erklärung steht vollumfänglich wie in Art 86 Abs 1 dargelegt zu (bei Vorliegen der übrigen Voraussetzungen). Der betroffenen Person sind somit klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess und zu den wichtigsten Elementen der getroffenen Entscheidung zu übermitteln, wobei die Erklärung einzelfallbezogen und auf das konkrete Ergebnis gerichtet sein muss. Der Anwendungsbereich von Art 15 (Abs 1 lit h iVm Art 22) DSGVO ist hingegen nicht eröffnet. Das Recht, die Entscheidung anzufechten, steht - zumindest gemäß AI Act - nicht zu.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Es findet eine vollautomatisierte Entscheidungsfindung auf Basis der Verarbeitung personenbezogener Daten statt, allerdings ohne Beteiligung eines Hochrisiko-KI-Systems iSd Art 6 Abs 2 iVm Anhang III AI Act (bspw wird die Entscheidung durch einen herkömmlichen Algorithmus getroffen, der Anforderungen an ein KI-System nach Art 3 Z 1 AI Act nicht erfüllt oder das KI-System fällt nicht in den Hochrisiko-KI-Bereich)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Auskunftsanspruch gemäß Art 15 (Abs 1 lit h iVm Art 22) DSGVO steht bei Vorliegen der übrigen Voraussetzungen zu, während das Recht auf Erklärung nach Art 86 AI Act keine Anwendung findet. Es sind der betroffenen Person somit Informationen über die involvierte Logik, Tragweite und Auswirkungen der Entscheidung zu übermitteln, wobei Informationen über die Rolle des eingesetzten Systems nicht darunter fallen. Im Unterschied zu Art 86 AI Act ist in Bezug auf Art 15 Abs 1 lit h DSGVO jedoch noch unklar, ob auch eine Verpflichtung zu einer einzelfallbezogenen Begründung der konkret erzielten Ergebnisse besteht, die über eine abstrakte/allgemeine Erklärung hinausgeht.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl etwa das EuGH-Urteil in der RS Dun &amp;amp; Bradstreet, welches stärker auf das lokale Element, dh die Einzelentscheidung, abzustellen scheint (EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117). MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 71, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Art 22 Abs 3 DSGVO enthält jedoch im Gegensatz zum AI Act das Recht, die Entscheidung anzufechten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Verarbeitung personenbezogener Daten im Rahmen der Entscheidungsfindung, Einsatz eines Hochrisiko-KI-Systems, vollautomatisierte Entscheidungsfindung&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Anspruch nach Art 86 AI Act tritt ergänzend zu jenem nach der DSGVO hinzu und richtet sich auf jene Informationen, die nach Art 15 DSGVO nicht zu beauskunften sind (bspw die Rolle des KI-Systems im Entscheidungsprozess sowie jedenfalls einzelfallbezogene, lokale Erklärungen). Es handelt sich somit um eine sog &amp;quot;Lückenfüller-Position&amp;quot; von Art 86 AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Ansicht folgend und mwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 96 ff, &amp;lt;nowiki&amp;gt;https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;mark&amp;gt;In der Regel werden Betroffene in der Praxis wohl beide Ansprüche gleichzeitig geltend machen. Dies ist allerdings nur möglich, sofern beide Ansprüche auch gegenüber der selben Person bzw Einrichtung geltend zu machen sind. Denn während das Recht auf Erklärung nach Art 86 AI Act gegen den Betreiber des KI-Systems zusteht, ist der Auskunftsanspruch gemäß Art 15 Abs 1 lit h DSGVO gegen jene Person oder Stelle zu richten, welche die Entscheidung getroffen hat (welche zwar meist aber nicht zwangsläufig mit der Person des datenschutzrechtlich Verantwortlichen iSd Art 4 Z 7 DSGVO ident sein wird&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Argumentation folgend: &#039;&#039;Ziegenhorn,&#039;&#039; Wer ist Adressat des Art. 22 DSGVO? Zur Abgrenzung des Entscheiders vom Verantwortlichen, CR 2024, 586.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;). Die unterschiedlichen Rollen nach AI Act und DSGVO können somit zusammenfallen, müssen dies allerdings nicht, wodurch sich unterschiedliche Verpflichtungen für die beteiligten Akteure ergeben können.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== Produkthaftungsrichtlinie neu und Vorschlag für eine AI Liability Directive [zurückgezogen] ===&lt;br /&gt;
&lt;br /&gt;
* Die Produkthaftungsrichtlinie neu (PHRL neu) und insbesondere &amp;lt;mark&amp;gt;der (zurückgezogene)&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Commission work programme 2025, (11.2.2025) COM(2025) 45 final, 26.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Vorschlag für eine&amp;lt;/mark&amp;gt; AI Liability Directive (AILD) nehmen direkt auf den AI Act Bezug und verweisen bei der Begriffsverwendung häufig auf diesen. Die AILD kann somit nicht ohne den Kontext des AI Act verstanden werden. So sollten die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD bilden ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]). &lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act überträgt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Begleit- bzw Durchführungsgesetz, das die Sanktionen konkretisiert.  &amp;lt;mark&amp;gt;Auch die notifizierende(n) Behörde(n) und die Marktüberwachungsbehörde(n) (Art 70 AI Act) wurden in Österreich noch nicht benannt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 5: Transkriptionstool im Rahmen der Rechtspflege&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|&amp;lt;mark&amp;gt;Im Rahmen des Verfassens von Urteilen oder Protokollen wird das gesprochene Wort (Diktat des Entscheidungsorgans) digital aufgezeichnet und anschließend transkribiert. Das System ist in der Lage, mithilfe KI-gestützter Spracherkennung die jeweils Sprechenden (Speaker Diarisation) sowie juristische Begriffe und Redewendungen zu erkennen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Transkriptionssoftware liegt ein Sprachmodell (LLM) zugrunde, das auf maschinellem Lernen basiert. Dieses wird durch ein User-Interface praktisch nutzbar gemacht und stellt somit ein KI-System iSd AI Act dar.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&amp;lt;mark&amp;gt;Der Einsatz von KI in der Rechtspflege zu gewissen Zwecken kann in den Hochrisiko-KI-Bereich gemäß Art 6 Abs 2 iVm Anhang III Nr 8 lit a AI Act fallen. Solche Systeme sind jedoch nicht als hochriskant einzustufen, sofern sie für rein begleitende administrative Tätigkeiten bestimmt sind, worunter jedenfalls Spracherkennungsprogramme für das Diktieren von Entscheidungen fallen können (ErwGr 61). In einem nächsten Schritt ist die Ausnahmeregelung des Art 6 Abs 3 AI Act zu prüfen, wonach das System höchstwahrscheinlich gemäß lit a leg cit aus dem Hochrisiko-KI-Bereich ausgenommen ist, da es rein für Protokollierungszwecke eingesetzt wird und damit nur eine eng gefasste Verfahrensaufgabe übernimmt. Ebenso ist denkbar, gemäß lit d leg cit aus dem Hochrisiko-KI-Bereich ausgenommen zu sein, sofern das System lediglich eine vorbereitende Aufgabe für die Urteilserstellung übernimmt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Bejaht man hingegen das Vorliegen von Hochrisiko-KI, so treffen deren Anbieter die Pflichten der Art 8 ff AI Act und den Betreiber insbesondere die Pflichten nach Art 26 und 27 AI Act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Sofern es sich um ein KI-Modell mit allgemeinem Verwendungszweck (mit systemischem Risiko) handelt, treffen den Anbieter diesbezüglich Verpflichtungen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Unabhängig von der Risikoeinstufung des Modells bzw Systems sind darüber hinaus die Transparenzpflichten nach Art 50 AI Act zu beachten sowie ein ausreichendes Maß an KI-Kompetenz unter den Beschäftigten, die mit dem Transkriptionstool arbeiten, herzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 6: KI-System zur Filterung und Priorisierung von Bewerbungen&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Sachverhalt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen möchte eine neue Stelle besetzen und erhält unzählige Bewerbungen. Daher entschließt es sich, ein KI-basiertes System einzusetzen, das Bewerbungen filtert und mit einem Einstufungswert versieht, wodurch die Bewerbungen priorisiert werden. Die zuständigen HR-Mitarbeiter*innen weichen nicht mehr von dem Wert ab und vergeben die Stelle schließlich an jene Person, die den höchsten Einstufungswert erhalten hat.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!&amp;lt;mark&amp;gt;Einordnung AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Sofern es sich bei der Anwendung um ein KI-System nach Art 3 Z 1 AI Act handelt, ist der Anwendungsbereich des AI Act grundsätzlich eröffnet. Das Unternehmen ist jedenfalls als dessen Betreiber zu qualifizieren, da es das System in eigener Verantwortung zu beruflichen Zwecken einsetzt. Sofern es das KI-System auch selbst entwickelt / entwickeln lässt und es unter eigener Marke bzw eigenem Namen in Betrieb nimmt, ist es sogar Anbieter.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]].&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Darüber hinaus stellt das System ein &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System nach Art 6 Abs 2 iVm Anhang III Punkt 4a AI Act dar, da es bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet wird, um Bewerbungen zu filtern und Bewerber zu bewerten. Eine Ausnahme nach Art 6 Abs 3 AI Act vom Hochrisiko-KI-Bereich liegt nicht vor, da das KI-System das Ergebnis der Entscheidungsfindung wesentlich beeinflusst (von dem KI-generierten Eignungswert wird nicht mehr abgewichen). Je nach Rolle treffen das Unternehmen nun weitereichende Verpflichtungen. In den meisten Fällen wird das Unternehmen wohl als Betreiber zu klassifizieren sein, weshalb es unter anderem die Betreiberpflichten nach Art 26 AI Act zu erfüllen und unter gewissen Voraussetzungen eine Grundrechte-Folgenabschätzung nach Art 27 AI Act durchzuführen hat. Art 26 Abs 7 sieht grundsätzlich auch die spezielle Betreiberpflicht vor, vor Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz die Arbeitnehmervertreter und betroffenen Arbeitnehmer über den KI-Einsatz zu informieren. Inwieweit diese Verpflichtung auch gegenüber Bewerbern gilt, die streng genommen (noch) keine Arbeitnehmer sind, ist fraglich und wird wohl zu verneinen sind. Diese vermeintliche Rechtsschutzlücke wird jedoch ohnehin wieder durch die Verpflichtung gemäß Art 26 Abs 11 AI Act ausgeglichen, von Hochrisiko-KI-Entscheidungen betroffene Personen über diesen KI-Einsatz zu informieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= &amp;lt;mark&amp;gt;Digitaler Omnibus&amp;lt;/mark&amp;gt; =&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 19. November 2025 stellte die Europäische Kommission das sogenannte &#039;&#039;&#039;„Digital Omnibus Package“&#039;&#039;&#039; vor, ein Legislativpaket mit dem Ziel, den digitalen Rechtsrahmen der EU zu vereinfachen.&amp;lt;ref name=&amp;quot;:2&amp;quot;&amp;gt;Vgl https://ec.europa.eu/commission/presscorner/detail/de/ip_25_2718. &amp;lt;/ref&amp;gt; Ziel der Maßnahme ist, Verwaltungs- und Umsetzungskosten zu senken, Rechtsklarheit zu erhöhen und insbesondere kleine und mittlere Unternehmen (KMU) zu entlasten, da Unternehmen zunehmend Schwierigkeiten bei der Umsetzung und Koordination von Vorgaben wie etwa dem AI Act sehen. Das Paket umfasst Änderungen und Anpassungen unterschiedlicher Rechtsrahmen, so auch einige Bestimmungen des AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Inhaltliche Änderungen betreffen einerseits die Verpflichtung zur Sicherstellung von KI-Kompetenz (Art 4), welche nunmehr nicht Unternehmen bzw. Einrichtungen selbst treffen soll, sondern die Kommission und die Mitgliedstaaten sind dazu angehalten, Anbieter und Betreiber zur Sicherstellung eines angemessenen Maßes an KI-Kompetenz zu unterstützen. Ebenso stellt die Kommission eine Verzögerung der Anwendbarkeit der Hochrisiko-KI-Bestimmungen in Aussicht, welche mit 2. August 2026 bzw 2. August 2027 Anwendung erlangen sollten. Grund ist das Fehlen von entsprechenden Standards, die eigentlich bis August 2025 zu setzen waren und ohne die laut Kommission die Einhaltung der entsprechenden AI Act-Bestimmungen nicht möglich sei. Die Anwendbarkeit der Hochrisiko-KI-Bestimmungen soll sich um bis zu maximal 16 Monate verzögern, wobei die Vorschriften Geltung erlangen, sobald die Kommission die Verfügbarkeit der erforderlichen Standards und Unterstützungsinstrumente bestätigt.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:2&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus enthält der Vorschlag einen neuen Art 4a, der die Verarbeitung sensibler personenbezogener Daten zur Erkennung und Minderung von Bias unter gewissen Voraussetzungen ermöglicht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Kommissionsleitlinien und sonstige Materialen/Verhaltenskodizes&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zur Definition eines Systems der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 6. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118628&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 4. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118661&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Living Repository zur Förderung des Lernens und des Austausches über KI-Kompetenz vom 04. Februar 2025 (mit Update von April 2025): https://ec.europa.eu/newsroom/dae/redirection/document/112203&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Praxisleitfaden für KI-Modelle mit allgemeinem Verwendungszweck (General-Purpose AI Code of Practice) vom 10. Juli 2025: https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Transparenz: https://ec.europa.eu/newsroom/dae/redirection/document/118120&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Urheberrecht: https://ec.europa.eu/newsroom/dae/redirection/document/118115&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Sicherheit: https://ec.europa.eu/newsroom/dae/redirection/document/118119&amp;lt;/mark&amp;gt;  &lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act vom 18. Juli 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118340&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Leitlinien und Meldevorlagen zur Meldung schwerwiegender KI-Vorfälle gemäß Art 73 AI Act (&#039;&#039;Entwurf, noch in Ausarbeitung&#039;&#039;): https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; AI Act Service Desk. Frequently Asked Questions (FAQs): https://ai-act-service-desk.ec.europa.eu/en/faq.&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&amp;lt;mark&amp;gt;Europäische Kommission,&amp;lt;/mark&amp;gt;&#039;&#039;&amp;lt;mark&amp;gt;Whistleblower Tool for AI Act, https://digital-strategy.ec.europa.eu/en/news/commission-launches-whistleblower-tool-ai-act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act)&amp;lt;mark&amp;gt;&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024) &amp;lt;mark&amp;gt;(2. Auflage 2026, iE)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schefzig/Kilian,&#039;&#039; BeckOK KI-Recht&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Hochrangige Expertengruppe für Künstliche Intelligenz,&#039;&#039; Ethik-Leitlinien für eine vertrauenswürdige KI (2019), https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425&amp;lt;/mark&amp;gt;&lt;br /&gt;
* [https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0 Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA)]&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4308</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4308"/>
		<updated>2025-11-26T23:51:53Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Abgrenzung der Rollen entlang der Wertschöpfungskette */ GPAI Code of Practice&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. Februar 2025 (schrittweise)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen von KI-Systemen &lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD, &amp;lt;mark&amp;gt;von der Kommission zurückgezogen&amp;lt;/mark&amp;gt;)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modelle (general purpose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB Verarbeitung zur Vermeidung von Verzerrungen, Art 10), regulatory sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (zB Anbieter- und Betreiberpflichten, Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz (eingeschränkt); reine Forschungszwecke &lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) gelten seit 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (zB Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|Gewährleistung von Transparenz und Verantwortlichkeit&lt;br /&gt;
|Pflichten für Betreiber (professionelle Nutzer*innen) und Anbieter&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (zB Chatbots, Deepfakes)&lt;br /&gt;
|Informationspflichten nach der DSGVO&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
&amp;lt;mark&amp;gt;Der AI Act ist die erste EU-weite, sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) und&amp;lt;/mark&amp;gt; folgt dabei primär einem produktsicherheitsrechtlichem Ansatz, dessen vorrangiges Regulierungsziel die Sicherheit von KI-Systemen und Modellen ist. &amp;lt;mark&amp;gt;Damit ist er Teil des sog [https://single-market-economy.ec.europa.eu/single-market/goods/new-legislative-framework_en?prefLang=de &amp;quot;New Legislative Framework&amp;quot;] (NLF), einem unionsrechtlichen Maßnahmenpaket zur Produktregulierung, das auf die Verbesserung der Marktüberwachung abzielt und sich durch einheitliche Kernelemente auszeichnet (zB Konformitätsbewertungsverfahren, Selbstregulierung, Standards und einheitliche Anforderungen). Im Rahmen des Gesetzgebungsprozesses wurde der Rechtsakt - insbesondere auf Bestreben des Europäischen Parlaments - um menschenrechtliche Aspekte und Betroffenenrechte erweitert, weshalb der AI Act mittlerweile deutlich über reines Produktsicherheitsrecht hinausgeht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modelle&#039;&#039;&#039; bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot;.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei handelt es sich um &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;ableitet&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot;&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe Art 3 Z 1 AI Act. Hervorhebungen nicht im Original. &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;abzuleiten&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Hingegen soll sich nach ErwGr 12 der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen [...]&amp;quot;, womit auf eine Abgrenzung von KI von herkömmlichen Softwarelösungen und Programmierungsansätzen abgezielt wird.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zusammenfassend möchte der EU-Gesetzgeber mit dieser Definition einerseits Rechtssicherheit schaffen, allerdings immer noch Raum für technologischen Fortschritt lassen, um den Anwendungsbereich des AI Act nicht von Vornherein vor potenziellen künftigen technologischen Entwicklungen zu verschließen.&amp;lt;/mark&amp;gt; Dennoch wurde die Definition als zu vage und unbestimmt empfunden. So wurden diverse Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Um den Begriff des KI-Systems also zu konkretisieren und Unsicherheiten zu beseitigen, sollte die Kommission gemäß Art 96 Abs 1 lit f AI Act Leitlinien vorlegen, und damit eine einheitliche Anwendung des Regelwerks fördern sowie Rechtsicherheit gewährleisten&amp;lt;/mark&amp;gt;.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle, &amp;lt;mark&amp;gt;einfache Datenverarbeitungssysteme, auf klassische Heuristik gestützte Systeme, einfache Vorhersagesysteme etc.&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Eine Positiv-Liste, welche Systeme jedenfalls unter den KI-Begriff fallen, enthalten die Leitlinien allerdings nicht. Sie orientieren sich vielmehr an den 7 Kernelementen der KI-Definition gemäß Art 3 Z 1 AI Act. Es wird überdies betont, dass nicht alle Elemente kontinuierlich in den beiden Hauptphasen des Lebenszyklus von KI (&amp;quot;building phase&amp;quot; / &amp;quot;pre-deployment&amp;quot; oder &amp;quot;use phase&amp;quot; / &amp;quot;post-deployment&amp;quot;) vorhanden sein müssen und, dass sich die Leitlinien kontinuierlich weiterentwickeln sollen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Folgende Konkretisierungen der KI-Definition und Beispiele sind den Leitlinien zu entnehmen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Elemente der KI-Definition&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Erläuterungen in den Leitlinien der EU-Kommission&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Maschinengestütztes System&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;KI benötigt Hardware- und Softwarekomponenten&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB eine Hardwareinfrastruktur wie processing units, Speicher, Input/Output-Schnittstellen und Software (Code, Programme etc.)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;autonomer Betrieb (in unterschiedlichem Grade)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erfordert einen gewissen Grad an Unabhängigkeit von menschlichem Eingreifen, wobei Systeme, die vollständig manuelle menschliche Interaktion erfordern, nicht darunter fallen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Umfasst sind Systeme, die zwar einen manuellen Input erfordern, aber von selbst einen Output generieren (zB Chatbots)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anpassungsfähigkeit nach Betriebsaufnahme (optional)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Selbstlernfähigkeiten (nicht zwingend erforderlich); darunter versteht man, ob sich das Verhalten des Systems während seiner Verwendung anpassen oder verändern kann (zB automatisches Lernen, wie Muster oder Beziehungen zwischen Daten erkannt werden können).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungsfähigkeit&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Inferenz, Schlüsseleigenschaft; dient der Abgrenzung von KI-Systemen von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen. Nicht umfasst sind hingegen Systeme, die nur von Menschen programmierten Regeln folgen und automatisiert Operationen ausführen. Die Ableitungsfähigkeit bedeutet daher die Erlernung allgemeiner Konzepte statt fester, vorprogrammierter Regeln.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Bsp: maschinelles Lernen, logik- und wissensgestützte Systeme (Schlussfolgerungen mittels Deduktion oder Induktion)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitung aus Eingaben für implizite oder explizite Ziele&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungen müssen nach entweder:&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;expliziten Zielen (klar definierte, direkt in den Code programmierte Ziele, Optimierung von Kostenfunktionen, Wahrscheinlichkeitsberechnung) oder&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;impliziten Zielen (Ableitung des Ziels aus dem Verhalten oder den dahinterstehenden Annahmen des Systems; bspw Trainingsdaten oder Interaktion des Systems mit Umwelt) erfolgen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erzeugung von Ausgaben&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ausgabe-Arten umfassen unter anderem&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Vorhersagen (Schätzungen unbekannter Werte basierend auf komplexen Datenmustern)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Inhalte (Texte, Bilder, Videos oder Musik)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Empfehlungen (Vorschläge für Maßnahmen, Produkte oder Dienstleistungen, die hochgradig personalisiert sind und Massendaten nutzen).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Entscheidungen (Vollautomatisierte Schlussfolgerungen oder Auswahlentscheidungen, die Prozesse automatisieren, die üblicherweise menschlichem Urteilsvermögen vorbehalten sind)&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;zB die generierten Inhalte von Chatbots, Produktvorschläge, Echtzeit-Vorhersagen, Auswahlentscheidungen&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Beeinflussung physischer oder virtueller Umgebungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Frage, ob das System einen aktiven Einfluss auf die Umgebungen hat, in denen es eingesetzt wird, sei es auf materielle physische Objekte oder auf digitale Räume&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB Roboterarm, Software-Ökosysteme, Datenströme&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}  &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI-Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit aus, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). &amp;lt;mark&amp;gt;Man kann hier den Vergleich zu einem KFZ ziehen, wobei das KI-Modell den Motor darstellt, der die eigentliche &amp;quot;Arbeit&amp;quot; leistet. Um jedoch fahrtüchtig zu sein, bedarf es nicht nur eines Motors, sondern das Fahrzeug benötigt darüber hinaus eine Karosserie, Räder, ein Lenkrad etc. Das wiederum bezeichnet das KI-System, welches das Modell erst durch seine Schnittstellen, seine Benutzeroberfläche etc. &amp;quot;fahrtüchtig&amp;quot; und damit nutzbar macht.&amp;lt;/mark&amp;gt; Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen &amp;quot;Nutzer&amp;quot;) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder sich in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollen:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität), unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act trat am &#039;&#039;&#039;1. August 2024&#039;&#039;&#039; in Kraft und wird generell am &#039;&#039;&#039;2. August 2026&#039;&#039;&#039; anwendbar (Art 113 AI Act). Gestaffelt erlangen einige Bestimmungen jedoch bereits vorab oder danach Geltung:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab &#039;&#039;&#039;2. August 2025&#039;&#039;&#039;&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem &#039;&#039;&#039;2. August 2027&#039;&#039;&#039;&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 111 Abs 2 AI Act enthält dabei jedoch eine sog „grandfathering“-Klausel, nach welcher der AI Act für Betreiber von Hochrisiko-KI-Systemen, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, nur dann gilt, wenn diese Systeme danach in ihrer Konzeption erheblich verändert wurden.&amp;lt;ref&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 23, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Verpflichtung zur Maßnahmenergreifung gilt für Betreiber und Anbieter gleichermaßen und ist ferner unabhängig von der Risikoklasse der infragestehenden KI-Anwendung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Unter KI-Kompetenz versteht man grundsätzlich &amp;quot;die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.&amp;quot;&amp;lt;ref&amp;gt;Vgl die Definition in Art 3 Z 56 AI Act.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dies umfasst die notwendigen Kompetenzen, um fundierte Entscheidungen über KI-Systeme zu treffen, technische Elemente zu verstehen sowie korrekt anzuwenden, die Auswirkungen von KI-basierten Entscheidungen auf Betroffene zu verstehen und KI-generierte Ausgaben angemessen zu interpretieren.&amp;lt;ref name=&amp;quot;:1&amp;quot;&amp;gt;Vgl ErwGr 20 AI Act. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dazu gehört auch, den einschlägigen Akteuren der KI-Wertschöpfungskette jene erforderlichen Kenntnisse zu vermitteln, um die Einhaltung und Durchsetzung der Vorschriften des AI Act zu gewährleisten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Weitere Konkretisierungen oder zwingende Mindestvorgaben für die Sicherstellung der KI-Kompetenz enthält der AI Act allerdings nicht und betont sogar, dass die Konzepte der KI-Kompetenz in Bezug auf den jeweiligen Kontext unterschiedlich sein können.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:1&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Die EU-Kommission hat daher ein [https://digital-strategy.ec.europa.eu/de/library/living-repository-foster-learning-and-exchange-ai-literacy &amp;quot;Living Repository&amp;quot;] angelegt, in dem Unternehmen ihre Praktiken in Bezug auf KI-Kompetenz eingetragen haben. Das Repository wird laufend ergänzt, ist jedoch nicht rechtsverbindlich. Weiters bilden die darin enthaltenen Praktiken keine Garantie zur Compliance mit Art 4 AI Act, allerdings stellen sie eine gute Orientierung dar, welche Maßnahmen zur Sicherstellung von KI-Kompetenz in unterschiedlichen Branchen bereits ergriffen werden. Häufig genannte Praktiken umfassen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne eLearning-Plattformen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne Weiterbildungen und Trainingsprogramme,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Kenntnis-basierte Schulungen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Video-/Podcast-Reihen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;spielebasierte Trainings,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Erstellung von KI-Verhaltenskodizes und Risikobewertungssystemen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;eigene Chatbots zum Training im Umgang mit Sprachmodellen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Denkbar ist überdies die Teilnahme an externen Fortbildungen und Schulungen, die Entwicklung von internen Richtlinien (&amp;quot;KI-Guidelines&amp;quot;) oder die Schaffung von sog &amp;quot;KI-Beauftragten&amp;quot; in der Organisation. Ob die Schulungsmaßnahmen fortlaufend zu erfolgen haben, ist rechtlich nicht vorgeschrieben, wird allerdings anzunehmen sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Dieser Ansicht folgend: &#039;&#039;Siglmüller&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 4 KI-Kompetenz Rz 5.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Ebensowenig sind die genauen Inhalte der Kompetenzvermittlungsmaßnahmen definiert. Es kann jedenfalls davon ausgegangen werden, dass diese zielgruppengerecht und zugeschnitten auf unterschiedliche Bedürfnisse erfolgen sollten. Weiters werden sie sich bei manchen Branchen, KI-Einsatzgebieten oder Personengruppen nicht lediglich auf rechtliche oder technische Anforderungen beschränken, sondern ebenso soziale und ethische Komponenten umfassen. Bei der Entwicklung und Nutzung von GPAI-Modellen wird beispielsweise die Vermittlung von Kenntnissen im Zusammenhang mit Urheberrecht, Datenschutz, &amp;quot;Bias&amp;quot; (Verzerrungen) oder &amp;quot;Halluzinationen&amp;quot; (erfundene falsche Ausgaben) sinnvoll sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger,&#039;&#039; Wissenskultur im KI-Zeitalter – eine Auseinandersetzung mit der KI-Kompetenz nach Art 4 AI Act und ihren praktischen Implikationen, ZIIR 2025, 250.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die EU-Kommission hat darüber hinaus eine [https://digital-strategy.ec.europa.eu/de/faqs/ai-literacy-questions-answers &amp;quot;FAQ-Seite&amp;quot;] mit Fragen und Antworten zur KI-Kompetenz angelegt, um einen besseren Überblick über die Anforderungen zu geben.&amp;lt;/mark&amp;gt;    &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten, &amp;lt;mark&amp;gt;da sie besonders schädlich sind, enormes Missbrauchspotenzial aufweisen und im Widerspruch zu europäischen Grundrechten und Grundfreiheiten stehen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 28 AI Act.&amp;lt;/mark&amp;gt; MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt; (Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt; Folgende Praktiken sind davon umfasst: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Praktik&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Nicht erfasste Praktiken&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsgrundlage&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Unterschwellige Beeinflussung außerhalb des Bewusstseins oder manipulative/täuschende Techniken&#039;&#039;&#039;, wodurch die freie Entscheidungsfähigkeit von Personen beeinträchtigt wird und ein Schaden mit hinreichender Wahrscheinlichkeit eintritt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ableitung sensibler Informationen aus Gehirnen von Nutzern über Maschine-Gehirn-Schnittstellen&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 29 AI Act sowie Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 66.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Chatbots, die zur Selbstverletzung verleiten&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 87.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Unterschwellige visuelle oder auditive Reize bzw generelle sensorische Manipulation&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 65 und 68.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erlaubt ist hingegen der Einsatz eines KI-Systems, das personalisierte Empfehlungen auf der Grundlage transparenter Algorithmen und Nutzerpräferenzen verwendet, und sich nicht absichtlich manipulativer Techniken bedient.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 128.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit a&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Ausnutzen der Vulnerabilität/Schutzbedürftigkeit&#039;&#039;&#039; aufgrund des Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine KI-Begleit-App, die durch gewisse Sprachmuster und Verhaltensweisen gezielt emotionale Abhängigkeiten und ungesunde Bindungen bei älteren Menschen erzeugt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-gestütztes Spielzeug, das Kinder zu riskanten Herausforderungen ermutigt oder durch süchtig machende Techniken zu übermäßigem Spielen anregt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte &amp;quot;Grooming-Praktiken&amp;quot; (gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht), um Mädchen mit Behinderung im Internet anzusprechen und zu manipulieren&amp;lt;ref&amp;gt;Vgl Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 88 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Kinder beim Lernen einer Fremdsprache durch den Einsatz unterschwelliger Techniken unterstützen soll, sofern sie transparent arbeitet und die Nutzerautonomie wahrt.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Benommenheit und Ermüdung bei Fahrern erkennen und sie im Einklang mit den Sicherheitsvorschriften mit Warnmeldungen auf Ruhepausen hinweisen, gelten ebenso nicht als Ausnutzung von Vulnerabilitäten.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 130ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit b&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social scoring&#039;&#039;&#039; (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Verwendung eines KI-Systems zur Schätzung der Betrugswahrscheinlichkeit bei Empfängern von Haushaltszulagen durch das Sozialamt, das sich auf Merkmale stützt, die in sozialen Kontexten ohne offensichtlichen Zusammenhang mit oder Relevanz für die Bewertung von Betrug erhoben oder abgeleitet werden, wie zB ein Ehepartner mit einer bestimmten Staatsangehörigkeit oder ethnischen Herkunft, der Besitz eines Internetanschlusses, das Verhalten auf sozialen Plattformen oder die Leistung am Arbeitsplatz etc.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems durch eine öffentliche Stelle, um für die Früherkennung gefährdeter Kinder anhand von Kriterien wie der psychischen Gesundheit und Arbeitslosigkeit der Eltern, aber auch anhand von aus verschiedenen Kontexten abgeleiteten Informationen über das soziale Verhalten der Eltern Familienprofile zu erstellen. Auf der Grundlage der erzielten Bewertung werden Familien für Kontrollen ausgewählt und als „gefährdet“ geltende Kinder werden aus ihren Familien genommen, unter anderem auch in Fällen geringfügiger Übertretungen seitens der Eltern, wie zB gelegentlich verpasste Arzttermine oder verhängte Verkehrsstrafen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine Regierung führt ein umfassendes KI-gestütztes System ein, das die Bürgerinnen und Bürger auf der Grundlage ihres Verhaltens in verschiedenen Lebensbereichen wie sozialen Interaktionen, Online-Aktivitäten, Kaufgewohnheiten und Pünktlichkeit bei der Begleichung von Rechnungen überwacht und einstuft. Menschen mit einer niedrigeren Bewertung müssen damit rechnen, dass sie eingeschränkten Zugang zu öffentlichen Dienstleistungen erhalten, höhere Zinsen auf Kredite zahlen und auf Reisen und bei der Suche nach einer Wohnung oder sogar einem Arbeitsplatz Schwierigkeiten haben.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 166 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Bonitätsprüfung natürlicher Personen auf Basis persönlicher Merkmale wie dem Einkommen vor Vergabe eines Kredits.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basierte Erhebung von Geschwindigkeitsüberschreitungen oder hochriskantem Fahrverhalten, die zur Erhöhung der KFZ-Versicherungsprämien führen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte gezielte kommerzielle Werbung fällt nicht in den Anwendungsbereich, wenn sie auf relevanten Daten (z. B. Nutzerpräferenzen) beruht, im Einklang mit den Rechtsvorschriften der Union über Verbraucherschutz, Datenschutz und digitale Dienste erfolgt und nicht zu einer Schlechterstellung oder Benachteiligung führt, die in keinem angemessenen Verhältnis zur Tragweite des sozialen Verhaltens des Nutzers steht (z. B. ausbeuterische und unfaire differenzierte Preisgestaltung).&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 177.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit c&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Bewertung des Risikos, dass eine Person eine Straftat&#039;&#039;&#039; begeht (ausschließlich aufgrund von Profiling)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Eine Polizeidienststelle verwendet KI-gestützte Risikobewertungsinstrumente, um das Risiko zu bewerten, dass kleine Kinder und Jugendliche an „künftigen Gewalttaten und Eigentumsdelikten“ beteiligt sein werden. Das System bewertet Kinder auf der Grundlage ihrer Beziehungen zu anderen Menschen und deren vermeintlichen Risikoniveaus, dh es wird eventuell davon ausgegangen, dass bei Kindern ein höheres Risiko für die Begehung von Straftaten besteht, einfach weil sie mit einer anderen Person wie einem Geschwisterkind oder einem Freund verbunden sind, bei der eine hohe Risikobewertung vorliegt. Das Risikoniveau der Eltern kann sich ebenfalls auf das Risikoniveau eines Kindes auswirken.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 202.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Standortbezogene oder geodatenbasierte Vorhersagen oder ortsbezogene Verbrechensvorhersagen (zB KI-System zur Berechnung der Kriminalitätswahrscheinlichkeit in bestimmten Stadtgebieten oder von Schmuggelrouten)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Unterstützung der durch Menschen durchgeführten Bewertung, die sich auf objektive und überprüfbare Tatsachen stützt, die in Zusammenhang mit einer kriminellen Aktivität stehen (zB Profiling zur Vorhersage gefährlichen Verhaltens in einer Menschenmenge, KI-basiertes Profiling von Personen, gegen die bereits ein Verdacht besteht, der auf mehreren überprüfbaren, objektiven Tatsachen beruht).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basiertes Profiling in Bezug auf juristische Personen&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur individuellen Vorhersage von Ordnungswidrigkeiten (zB Bagatellverkehrsdelikte)&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 212 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit d&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erstellung/Erweiterung von &#039;&#039;&#039;Datenbanken&#039;&#039;&#039; zur Gesichtserkennung durch &#039;&#039;&#039;ungezieltes Auslesen von Gesichtsbildern&#039;&#039;&#039;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen für Gesichtserkennungssoftware sammelt Bilder von Gesichtern, die mit einem „automatisierten Bildausleser“, der das Internet durchsucht und Bilder mit menschlichen Gesichtern erkennt, aus sozialen Medien (zB Facebook, X) ausgelesen wurden. Der Bildausleser sammelt diese Bilder mit allen damit verbundenen Informationen (wie der Quelle des Bildes (URL), der Geolokalisierung und manchmal den Namen der einzelnen Personen). Die Gesichtsmerkmale werden dann aus den Bildern extrahiert und in mathematische Darstellungen umgewandelt, die für die Indexierung und den künftigen Vergleich mit Hashtags versehen werden. Wenn ein Nutzer das Bild einer Person in das KI-System hochlädt, wird dieses System bestimmen, ob dieses Bild mit einem Gesicht in der Datenbank übereinstimmt.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 232.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Das ungezielte Auslesen anderer biometrischer Daten als Gesichtsbilder (zB Stimmaufnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Gesichtsbilddatenbanken, die nicht für die Erkennung von Personen verwendet werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Gesichtsbilder aus dem Internet sammeln, um KI-Modelle zur Erzeugung neuer Bilder fiktiver Personen zu entwickeln&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit e&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Emotionserkennungssysteme&#039;&#039;&#039; am Arbeitsplatz oder in Bildungseinrichtungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das beispielsweise aus Gesten, Stirnrunzeln oder fehlendem Lächeln ableitet, dass ein Mitarbeiter unglücklich, traurig oder gegenüber den Kunden wütend ist&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Systeme, die aus Stimmführung oder Körpersprache ableiten, dass ein Schüler zornig und im Begriff ist, gewalttätig zu werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Emotionen aus Tastenanschlägen (Art des Tippens), Gesichtsausdrücken, Körperhaltungen oder Bewegungen ableitet, beruht auf biometrischen Daten und fällt in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die den emotionalen Ton in hybriden Arbeitsteams überwachen, indem sie Emotionen aus Stimm- und Bildaufnahmen hybrider Videokonferenzen erkennen und ableiten, was in Regel der Förderung des sozialen Bewusstseins, des Managements emotionaler Dynamik und der Konfliktverhütung dienen würde&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems bei Online-Prüfungen zur Erkennung von Emotionen wie Erregungs- und Angstzustände&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung zur Bewertung des Wohlbefindens, des Motivationsniveaus und der Arbeits- oder Lernzufriedenheit von Studierenden oder Arbeitnehmern.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der Einsatz von KI-Erkennungssystemen, um auf die Ermüdung eines Berufspiloten oder -fahrers zu schließen, ihn zu warnen und ihm zu empfehlen, zur Vermeidung von Unfällen Pausen einzulegen, da Emotionserkennung keine physischen Zustände wie Schmerzen oder Ermüdung einschließt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das aus schriftlichen Texten (Analysen von Inhalt und Stimmung) Emotionen ableitet, um den Stil oder den Ton eines bestimmten Artikels zu bestimmen, beruht nicht auf biometrischen Daten und fällt daher nicht in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Werden Emotionserkennungssysteme nur zu persönlichen Schulungszwecken eingesetzt, sind sie zulässig, sofern die Ergebnisse nicht Personen mit Personalverantwortung zur Verfügung gestellt werden und keine Auswirkungen auf das Arbeitsverhältnis haben&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die durch eine Bildungseinrichtung erfolgende Verwendung einer KI-gestützten Software zur Verfolgung der Augenbewegungen bei Online-Prüfungen Studierender, um den Fixierungspunkt und die Bewegung der Augen zu verfolgen (um beispielsweise zu erkennen, ob unerlaubtes Material verwendet wird), ist nicht verboten, da das System Emotionen weder erkennt noch ableitet&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung aus medizinischen Gründen zur Unterstützung von Arbeitnehmern oder Studierenden mit Autismus und zur Verbesserung der Barrierefreiheit für blinde oder gehörlose Menschen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit f&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Kategorisierung,&#039;&#039;&#039; Ableitung von sensiblen Daten (religiöse Weltanschauung, politische Einstellung)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Personen, die auf einer Plattform sozialer Medien aktiv sind, nach ihrer angenommenen politischen Ausrichtung kategorisiert, indem es die biometrischen Daten der von ihnen auf die Plattform hochgeladenen Fotos analysiert, um ihnen gezielte politische Nachrichten zu übermitteln&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;ein System zur biometrischen Kategorisierung, das für sich in Anspruch nimmt, die religiöse Ausrichtung einer Person aus ihren Tätowierungen oder ihrem Gesicht ableiten zu können.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 280 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die mit der Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze, auch zu Strafverfolgungszwecken, befasst sind (zB bei Verdacht auf Darstellungen sexuellen Kindesmissbrauchs)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;die Kategorisierung von Patienten, bei der Bilder nach ihrer Haut- oder Augenfarbe verwendet werden, für medizinische Diagnosen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 284 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit g&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Echtzeit-Fernidentifizierungssysteme&#039;&#039;&#039; in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die polizeiliche Verwendung von Systemen zur biometrischen Echtzeit-Fernidentifizierung zu dem Zweck, Ladendiebe zu identifizieren und ihre Gesichtsbilder mit Kriminaldatenbanken zu vergleichen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 328.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung von Echtzeit-Gesichtserkennungstechniken durch die Polizei nach einem schweren Terroranschlag auf einen Weihnachtsmarkt mit zwölf Toten, um den Täter zu identifizieren und festzustellen, wohin er flieht. In diesem Zusammenhang nutzen sie auch die Echtzeit-Gesichtserkennungstechnik des nahe gelegenen Bahnhofs und der Zielbahnhöfe der Züge, die kurz nach dem Angriff von dort abgehen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 354.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit h&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&amp;lt;br /&amp;gt;&lt;br /&gt;
Einige dieser Praktiken sind darüber hinaus bereits nach anderen Rechtsvorschriften verboten, so beispielsweise gewisse manipulative und täuschende Techniken als &amp;quot;dark patterns&amp;quot; nach dem [[Digital Services Act (DSA)|Digital Services Act]] (gilt nur für bestimmte Plattform-Anbieter) oder die Verarbeitung biometrischer Daten zur Identifizierung einer Person nach Art 9 Abs 1 DSGVO, sofern keine der in Abs 2 genannten Ausnahmen vorliegt. Gemäß der neuen Plattformarbeitsrichtlinie&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Richtlinie (EU) 2024/2831 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit, ABl L 11. 11. 2024.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;, die bis Dezember 2026 in nationales Recht umzusetzen ist, ist überdies der Einsatz von automatisierten Überwachungs- und Entscheidungssystemen zur Erfassung personenbezogener Daten über den emotionalen oder psychischen Zustand einer Person (Emotionserkennung) verboten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;MwN &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2024) Art 5 Rz 104.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act klassifiziert Hochrisiko-KI-Systeme in Art 6. Dabei kennt er zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige&amp;quot; Hochrisiko-KI-Systeme bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei folgenden Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder stellt selbst ein solches Produkt dar&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten: bspw biometrische Identifizierung, kritische Infrastrukturen, grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle, Justiz und demokratische Prozesse).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis einer Entscheidungsfindung, an der das System beteiligt ist, wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot; &amp;lt;mark&amp;gt;Als Profiling gilt dabei iSd Art 4 Abs 4 DSGVO jede automatisierte Verarbeitung personenbezogener Daten, die darin besteht, bestimmte persönliche Aspekte einer Person zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, Gesundheit, persönliche Vorlieben, Zuverlässigkeit, Verhalten etc. zu analysieren oder vorherzusagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Europäische Kommission hat im Rahmen von Public Consultations unter anderem auch Rückmeldungen zu Anforderungen an Hochrisiko-KI-Systeme eingeholt, die eine Grundlage für Leitlinien bilden sollen, welche im Februar 2026 veröffentlicht werden sollen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;European Commission, Commission launches public consultation on high-risk AI systems, https://digital-strategy.ec.europa.eu/en/news/commission-launches-public-consultation-high-risk-ai-systems (Stand 6.6.2025).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Pflichten für Betreiber von Hochrisiko-KI-Systemen&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Betreiberpflichten nach Art 26 AI Act&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis &amp;lt;mark&amp;gt;([https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#KI-Kompetenz/AI_literacy_(Art_4_AI_Act) &amp;quot;KI-Kompetenz&amp;quot;] nach Art 4&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 40. &amp;lt;/ref&amp;gt;)&amp;lt;/mark&amp;gt; verfügen und ihnen die erforderliche Unterstützung zukommen lassen. &lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von automatisiert erzeugten &#039;&#039;&#039;Protokollen&#039;&#039;&#039; &amp;lt;mark&amp;gt;für einen Zeitraum von zumindest 6 Monaten (wobei hier entgegenstehende datenschutzrechtliche Regelungen vorgehen würden&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 42.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;)&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, vor Verwendung oder Inbetriebnahme des Hochrisiko-KI-Systems am Arbeitsplatz. &amp;lt;mark&amp;gt;Dies umfasst sowohl den Einsatz von &amp;quot;eingebetteten&amp;quot; als auch &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Weiters sind die Mitwirkungspflichten des Betriebsrats zu berücksichtigen (vgl §§ 96 f ArbVG). Nicht umfasst sind wahrscheinlich Informationspflichten gegenüber Bewerbern, da diese tendenziell nicht unter den von dieser Bestimmung geforderten &amp;quot;Arbeitnehmer-Begriff&amp;quot; fallen&amp;lt;/mark&amp;gt;.&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet. &amp;lt;mark&amp;gt;Diese Bestimmung gilt lediglich für den Einsatz von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen nach Art 6 Abs 2 iVm Anhang III.Die danach mitzuteilende Information sollte die Zweckbestimmung und die Art der getroffenen Entscheidung beinhalten (vgl ErwGr 93) sowie - nach einer hier vertretenen Auffassung - eine vorab Information über das Recht auf Erklärung nach Art 86 AI Act, welches von KI-Entscheidungen Betroffenen das Recht zugesteht, unter gewissen Voraussetzungen vom Betreiber eine klare und aussagekräftige Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess sowie zu den wichtigsten Elementen der getroffenen Entscheidung zu erhalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe die entsprechende Argumentationslinie im Detail: &#039;&#039;Research Institute&#039;&#039;, Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025) 100 ff, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.  &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 27 Abs 4 macht überdies die Verzahnung der Grundrechte-Folgenabschätzung (GRFA) mit anderen Folgenabschätzungen deutlich und schreibt bspw vor, dass bei Vorliegen einer Datenschutz-Folgenabschätzung nach Art 35 DSGVO die GRFA diese ergänzen bzw in diese integriert werden solle.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Piltz/Zwerschke&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 27 Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme Rz 32.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Sowohl die Verpflichtungen nach Art 26 als auch die Durchführung einer GRFA nach Art 27 treffen den Betreiber unabhängig davon, ob jemand (bspw Betroffene) deren Einhaltung einfordern. Im Unterschied dazu enthält der AI Act in den Artt 85 ff sog &amp;quot;Betroffenenrechte&amp;quot;, die aktiv von betroffenen Personen geltend zu machen sind. Dazu zählt insbesondere das [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Recht auf Erklärung nach Art 86], welches das einzige Betroffenenrecht darstellt, das direkt gegen den Betreiber durchsetzbar ist.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführer oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn die genannten Personen ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen;&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt;&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das &#039;&#039;nicht&#039;&#039; als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird.&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter (Erstanbieter) nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat jedoch mit dem neuen Anbieter zusammenzuarbeiten, insb Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI Act muss beachtet werden, dass die Rollenverteilung eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters erfolgt, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden &amp;lt;mark&amp;gt;sowie den Anforderungen an die Barrierefreiheit genügen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots, &amp;lt;mark&amp;gt;Sprachassistenten, Social Bots)&amp;lt;/mark&amp;gt;, sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Pflicht kann entfallen, wenn die Interaktion mit dem KI-System aus Sicht einer angemessen informierten, aufmerksamen und verständigen Person offensichtlich ist oder beim Einsatz von KI-Systemen, die für die Strafverfolgung zugelassen sind.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 43.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
*&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 40.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Chatbots&#039;&#039;&#039; können durch einen textlichen Hinweis zu Beginn des Gesprächs oder ein dauerhaft angezeigtes grafisches Symbol vorgestellt werden.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Bei &#039;&#039;&#039;Voicebots&#039;&#039;&#039; kommt eine der Interaktion vorausgehende Ansage, welche auf den KI-Einsatz hinweist, in Betracht.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social Bots&#039;&#039;&#039; können eine Information vor und mit jeder Interaktion des Bots in sozialen Netzwerken erfordern, da das System stets mit einem neuen Personenkreis in Interaktion tritt (zB AI-Influencer).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Das KI-Büro hat am 5. November 2025 Arbeiten an einem Verhaltenskodex in Bezug auf die Kennzeichnung von KI-generierten Inhalten aufgenommen. Die entsprechenden Leitlinien werden in einem siebenmonatigen Prozess, der sich insbesondere durch die Einbindung von relevanten Stakeholdern und öffentliche Konsultationen auszeichnen soll, erarbeitet werden. Näheres unter: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Mögliche Methoden wären bspw Wasserzeichen, Metadatenidentifizierungen, Kryptografische Methoden (zB &amp;quot;Hashing&amp;quot;), Protokollierungsmethoden oder Fingerabdrücke.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 133 Satz 4 sowie mwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 84 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Denkbar ist bspw eine Umsetzung in Form eines sichtbaren Wasserzeichens, eines textlichen Hinweises, durch Hinzufügen von sog C2PA-Content Credentials&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Die C2PA („Coalition forContent Provenanceand Authenticity“) ist ein branchenübergreifendes Non-profit-Projekt, das die Entwicklung gemeinsamer technischer Standards zur Ermittlung der Herkunft von digitalen Inhalten zum Ziel hat. Siehe dazu https://c2pa.org/. So hat sich bspw LinkedIn bei der Erkennung KI-generierter Inhalte diesen Standards unterworfen: https://www.linkedin.com/help/linkedin/answer/a6282984. MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 150.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;oder bei Audioinhalten durch eine Ansage zu Beginn des Audioinhalts.&amp;lt;ref&amp;gt;&#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 148 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Verpflichtung entfällt, wenn die betreffenden Inhalte vor ihrer Veröffentlichung einer menschlichen oder redaktionellen Kontrolle unterzogen wurden und eine Person die redaktionelle Verantwortung dafür trägt. Da die Anforderungen an die menschliche bzw redaktionelle Kontrolle nicht konkretisiert werden, unterwerfen sich bspw im journalistischen Bereich zahlreiche Medien freiwilligen Leitlinien (so etwa die [https://www.blm.de/files/pdf2/ki-leitlinien.pdf Leitlinien des Medienrats der Bayerischen Landeszentrale für neue Medien (BLM) zum Einsatz von Künstlicher Intelligenz im Journalismus]).&amp;lt;ref&amp;gt;MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 163 f.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als &amp;quot;KI-Systeme mit minimalem Risiko&amp;quot; bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf den sprunghaften Durchbruch generativer KI-Modelle, die für viele verschiedene Zwecke eingesetzt werden können, in den Jahren 2022 und 2023 wurden unter Durchbrechung des bisherigen zweck- und risikoorientierten Regelungsansatzes im Entwurfsstadium des AI Act nachträglich Regeln für solche Modelle eingefügt. Ein GPAI-Modell (in früheren Entwurfsfassungen foundation model/Basismodell) ist dabei in Art 3 Z 63 AI Act definiert als ein KI-Modell, das&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;das eine erhebliche allgemeine Verwendbarkeit aufweist,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;In den von der EU-Kommission im Juli 2025 veröffentlichten Leitlinien zu GPAI-Modellen werden eine kumulierte Menge der für das Training verwendeten Berechnungen von mehr als 10&amp;lt;sup&amp;gt;23&amp;lt;/sup&amp;gt; FLOPs und die Fähigkeit, geschriebene oder gesprochene Sprache (aber auch Bilder oder Videos aus Text) zu generieren, als Anhaltspunkte für das Vorliegen eines GPAI-Modells angegeben, es sei denn, das Modell erfüllt die oben angegebenen Kriterien der Allgemeinheit nicht (zB weil es spezifisch nur für die Transkription von Sprache in Text trainiert wurde).&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 13ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Somit ist davon auszugehen, dass die üblichen [https://de.wikipedia.org/wiki/Large_Language_Model LLM]s, wie die GPT-Serie von OpenAI, die Gemini-Serie von Google oder die Claude-Serie von Anthropic als GPAI-Modelle im Sinne dieser Definition einzustufen sind.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt.&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Abgrenzung der Rollen entlang der Wertschöpfungskette&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&amp;lt;mark&amp;gt;In Bezug auf GPAI-Modelle können drei Rollen unterschieden werden:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Anbieter (Provider):&#039;&#039;&#039; Entwickeln, trainieren und veröffentlichen Modelle. Sie tragen primär Verantwortung für Modellqualität, Sicherheit und Dokumentation.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Anbieter (Downstream Provider):&#039;&#039;&#039; Feintunen, modifizieren oder integrieren Modelle in KI-Systeme.&amp;lt;/mark&amp;gt; &lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Betreiber (Deployer):&#039;&#039;&#039; Nutzen ein KI-System im praktischen Einsatz.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Ein wesentlicher Zweck der Regulierung von GPAI-Modellen ist, dass nachgelagerte Anbieter, ein GPAI-Modell in ihr KI-System integrieren, Informationen über dieses Modell erhalten und darauf basierend ihren eigenen Verpflichtungen (nach den allgemeinen Regeln des AI Act für KI-Systeme) nachkommen zu können.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme der Hauptgegenstand der Regulierung durch den AI Act sind (risikobasierten Ansatz), unterliegen auf Ebene der Modelle nur GPAI-Modelle einer direkten Regulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese Regulierung unterscheidet zwischen GPAI-Modellen ohne und GPAI-Modellen mit systemischem Risiko. Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act), &lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über &amp;quot;Fähigkeiten mit hohem Wirkungsgrad&amp;quot; verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; beträgt. Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act). Oder&lt;br /&gt;
* wenn die Kommission in einer Entscheidung festgestellt hat, dass es über solche Fähigkeiten oder eine solche Wirkung verfügt (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden. &lt;br /&gt;
* Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
* eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
* eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
* mögliche systemische Risiken auf Unionsebene bewerten und mindern,&lt;br /&gt;
* einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
* ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten.&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung des AI Act beitragen sollen.&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von GPAI-Modellen sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 56 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 10. Juli 2025 wurde der Praxisleitfaden &amp;quot;[https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai General-Purpose AI Code of Practice]&amp;quot; veröffentlicht und von der EU-Kommission und vom KI-Gremium am 1. August 2025 gem Art 56 Abs 6 AI Act als angemessen bewertet.&amp;lt;ref&amp;gt;Europäische Kommission, Erstellung eines allgemeinen KI-Verhaltenskodex, https://digital-strategy.ec.europa.eu/de/policies/ai-code-practice.&amp;lt;/ref&amp;gt; Zu diesem wurde&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;auch eine [https://digital-strategy.ec.europa.eu/de/faqs/questions-and-answers-code-practice-general-purpose-ai &amp;quot;FAQ-Sektion&amp;quot;] veröffentlicht. Zusätzlich hat die EU-Kommission am 18. Juli 2025 auch Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act veröffentlicht.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Für Anbieter von GPAI-Modellen, die den General-Purpose AI Code of Practice unterzeichnen und diesen einhalten, können dadurch nachweisen, dass sie den AI Act einhalten. Damit soll Rechtssicherheit geschaffen werden. Es handelt sich dabei aber um eine freiwillige Maßnahme und es ist auch nicht ausgeschlossen, die entsprechenden Bestimmungen des AI Act auf andere Weise umzusetzen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Auf der oben verlinkten Website des General-Purpose AI Code of Practice ist angegeben, welche Anbieter von GPAI-Modellen diesen unterzeichnet haben. Darunter finden sich die meisten Anbieter der gängigen LLMs, wie Anthropic, Google, OpenAI und Mistral AI.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der AILD und PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Stand November 2025 wurde in Österreich noch keine Behörde als zuständige Marktüberwachungsbehörde eingerichtet oder benannt. Bereits mit 2. November 2024 sind jedoch einige Behörden und öffentliche Stellen im Grundrechtsbereich gemäß Art 77 Abs 2 mit Aufsichts- und Durchsetzungsbefugnissen für Grundrechte insb im Zusammenhang mit Hochrisiko-KI ausgestattet worden, darunter die Volksanwaltschaft, die Datenschutzbehörde, die Arbeiterkammer, die Gleichbehandlungskommission, die Behindertenanwaltschaft, die KommAustria uvm.&amp;lt;ref&amp;gt;Mehr dazu unter: https://www.digitalaustria.gv.at/themen/kuenstliche-intelligenz/behoerden-art77-ai-act.html.&amp;lt;/ref&amp;gt; Dabei treffen auch die (künftig) zuständige Marktüberwachungsbehörde umfassende Kooperationspflichten, wie etwa die Meldung schwerwiegender Grundrechtsvorfälle in diesem Kontext an die genannten Einrichtungen (vgl Art 73 Abs 7 und Art 79 Abs 2 AI Act).&amp;lt;ref&amp;gt;Vgl &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 103, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Dazu hat die Kommission entsprechende Leitlinien zu veröffentlichen, die sich gerade in Ausarbeitung befinden.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung im Einzelfall betroffen sind,&lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (&amp;lt;mark&amp;gt;Recht auf Erläuterung der Entscheidungsfindung im Einzelfall gemäß Art 86 Abs 1 AI Act oder auch gemeinhin als &#039;&#039;&#039;&amp;quot;Recht auf Erklärung&amp;quot;&#039;&#039;&#039; bezeichnet&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157; &#039;&#039;Poindl/Müller,&#039;&#039; Das Recht auf Erklärung im AI Act. Betroffenenrecht mit Potenzial oder Papiertiger?, VbR 2025, 40. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei ist es unerheblich, ob das KI-System die Entscheidung gänzlich autonom getroffen hat oder unterstützend beteiligt war, es darf lediglich keine untergeordnete Rolle im Entscheidungsprozess gespielt haben.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Steht das Recht auf Erklärung zu, hat die betroffene Person einerseits das Recht, eine Erklärung über die Rolle des KI-Systems im Entscheidungsprozess zu verlangen, worunter einerseits Informationen über die zentralen Aufgaben des Systems im Entscheidungsprozess fallen (zB Zielgruppenselektion, Datenanalyse, Vorgabe der Entscheidung usw.) und andererseits auch der Grad dessen Beteiligung (gering, mittel, hoch), was umgekehrt auch den Grad menschlicher Beteiligung an der Entscheidungsfindung erfordert. Weiters sind die wichtigsten Elemente der Entscheidung zu beauskunften, beispielsweise Eingabedaten, wesentliche Entscheidungsgründe, kontrafaktische Erklärungen (inwiefern hätten andere Parameter zu einer anderen Entscheidungen geführt), die Auswirkungen der Entscheidung, die Gewichtung der einzelnen Kriterien und die Verarbeitungslogik (Informationen über die grobe Funktionsweise des KI-Systems, keine komplette Offenlegung des algorithmischen Codes). Weiters muss die Erklärung präzise, korrekt, verständlich, nicht zu technisch (keine komplexen mathematischen Formeln), aber dennoch vollständig sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letzter Referenzpunkt ist stets, ob die betroffene Person auf Basis der erlangten Informationen weitere Rechte geltend machen kann, da das Recht auf Erklärung auch oft als &amp;quot;Türöffner&amp;quot; für die Geltendmachung weiterer Rechte dient (so wird bspw eine Klage wegen Diskriminierung in einem Entscheidungsprozess erst erhoben werden können, wenn die betroffene Person genügend Informationen hat, um die Diskriminierung darzulegen, bspw die Gewichtung von bestimmten persönlichen Merkmalen, die ausschlaggebend für die Entscheidung war).&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Es handelt sich somit um ein nachgelagertes bzw &#039;&#039;ex post&#039;&#039; Recht, das nicht nur globale, abstrakte Systemerklärungen erfordert, sondern auch lokale, einzelfallbezogene Auskünfte umfasst, damit die betroffene Person die Informationen wirksam nutzbar machen kann .&amp;lt;/mark&amp;gt; Das Recht auf Erklärung steht Betroffenen gegenüber Betreibern und nicht gegenüber Anbietern zu, wobei letztere wiederum Betreibern entsprechende Betriebsanleitungen bereitzustellen haben (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung gilt nicht, sofern Ausnahmen nach Unionsrecht oder nationalem Recht bestehen (Art 86 Abs 2). Zu denken wäre hier etwa an Beschränkungen der Informationspflicht aufgrund geschützter Betriebs- oder Geschäftsgeheimnisse, wobei diese nicht zu einer pauschalen Auskunftsverweigerung führen dürfen.&amp;lt;/mark&amp;gt; Art 86 Abs 1 gilt überdies nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung Subsidiarität] ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung ist immer dann relevant, wenn Unternehmen, Behörden etc. KI in Entscheidungsfindungsprozessen einsetzen, die Auswirkungen auf bestimmte Personen(-gruppen) haben. Zu denken ist etwa an KI-basierte Entscheidungen über die Vergabe von Krediten, über die Berücksichtigung einer Bewerbung, über die Höhe einer Versicherungsprämie oder personalisierte Werbeschaltungen auf Basis von Emotionserkennung.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zum Umgang mit dem Recht auf Erklärung in der Praxis hat das &#039;&#039;Research Institute&#039;&#039; im Auftrag des Bundesministeriums für Arbeit, Soziales, Gesundheit, Pflege und Konsumentenschutz Leitlinien entwickelt:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:f1685e43-21b8-48f3-9fe5-2c61898960ae/Final_Aufkl%C3%A4rung%204.0_Unternehmensleitfaden_April2025.pdf Leitfaden für Unternehmen] im Umgang mit Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:40ba630c-39af-4b8d-8768-a69192427b09/Final_Aufkl%C3%A4rung%204.0_Konsumentinnenleitfaden_April2025.pdf Leitfaden für Konsument:innen und ihre Interessenvertretungen] zur Durchsetzung ihrer Rechte&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf Theoretischer Grundlagenbericht] zur wissenschaftlichen Fundierung der ausgesprochenen Empfehlungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Grundlegende Überschneidungen zwischen dem AI Act und der Datenschutz-Grundverordnung (DSGVO)&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Da KI-Systeme bzw -Modelle häufig personenbezogene Daten verarbeiten - bspw im Rahmen des Trainings eines KI-Modells oder zur Entscheidungsunterstützung in Bezug auf konkrete Personen -, stellt sich unweigerlich die Frage nach dem Zusammenwirken des AI Act mit der DSGVO.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Der Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA) des LfDI Baden-Württemberg enthält eine Auswahl von Orientierungshilfen verschiedener Aufsichtsbehörden und Gremien zu den Schnittstellen von DSGVO und KI: https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0. MwN &#039;&#039;Holtz/Ledendal,&#039;&#039; AI Data Governance - Overlaps Between the AI Act and the GDPR (iE, 2026): https://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1996843&amp;amp;dswid=-4177 sowie der [https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/DE-Bridge-Blueprint-v.0.9.pdf &amp;quot;Bridge Blueprint&amp;quot;-Entwurf] zur einheitlichen Anwendung von Datenschutz- und KI-Regulierung des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI).&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letztere knüpft ihren Anwendungsbereich nämlich an die Verarbeitung personenbezogener Daten iSd Art 4 Abs 1 DSGVO, worunter alle Informationen zu verstehen sind, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Die DSGVO ist seit 2018 in Anwendung und verfolgt den Grundsatz, dass jegliche Verarbeitung personenbezogener Daten verboten ist, es sei denn, es liegt ein Erlaubnistatbestand nach Art 6 Abs 1 DSGVO vor. Für die Verarbeitung sog &amp;quot;sensibler Daten&amp;quot; nach Art 9 DSGVO (zB Gesundheitsdaten, die ethnische Herkunft, die religiöse Weltanschauung etc.) legt sie noch strengere Maßstäbe an. Damit verfolgt die DSGVO einen horizontalen sowie prinzipienbasierten Ansatz, wonach bei der Verarbeitung personenbezogener Daten bestimmte Anforderungen und Grundsätze einzuhalten sind, ungeachtet der verwendeten Technologie, des Sektors oder des Einsatzgebiets.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 32, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus orientiert sich die Verordnung daran, inwieweit eine bestimmte Datenverarbeitung ein Risiko für die Rechte und Freiheiten natürlicher Personen darstellt (&amp;quot;risikobasierter Ansatz&amp;quot;), wonach sich letztendlich die Strenge der von ihr vorgeschriebenen Verpflichtungen bemisst.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Der AI Act erkennt das Primat der DSGVO in Art 2 Abs 7 an und statuiert, dass er deren Anwendungsbereich unberührt lässt. Somit gehen im Falle der Verarbeitung personenbezogener Daten durch eine KI-Anwendung die Regelungen der DSGVO grundsätzlich vor, während der AI Act dem ergänzend eine produktsicherheitsrechtliche Komponente beifügt, die während der Entwicklung und des Einsatzes von KI zu beachten ist.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 33, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Überschneidungen beider Rechtsakte ergeben sich bspw, sobald ein KI-Modell mit personenbezogenen Daten &#039;&#039;&#039;trainiert&#039;&#039;&#039; werden soll. In diesem Fall braucht es eine Rechtsgrundlage nach Art 6 Abs 1 DSGVO (und ggf Art 9 DSGVO), wobei hier am ehesten die berechtigten Interessen des Verantwortlichen nach lit f leg cit infrage kommen. So hat sich bspw der Facebook-Mutterkonzern Meta auf berechtigte Interessen berufen, um sein Sprachmodell &amp;quot;LLaMA&amp;quot; hinter seiner &amp;quot;Meta AI&amp;quot; mit Nutzerdaten zu trainieren. Dagegen erhob die Verbraucherschutzzentrale NRW Antrag auf Erlass einer einstweiligen Verfügung, letztendlich entschied jedoch das OLG Köln in seinem Beschluss vom 23.05.2025 (15 UKl 2/25), dass sich Meta für das KI-Training mit Nutzerdaten auf berechtigte Interessen stützen könne.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://www.verbraucherzentrale.nrw/urteilsdatenbank/digitale-welt/olg-koeln-weist-eilantrag-der-verbraucherzentrale-nrw-gegen-meta-wegen-kitraining-zurueck-108065.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Umgekehrt ist laut Art 35 DSGVO immer dann eine Datenschutz-Folgenabschätzung durchzuführen, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat, insbesondere bei Verwendung neuer Technologien. Darunter fallen gemäß §2 Abs 2 Z 4 DSFA-V&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Verordnung der Datenschutzbehörde über Verarbeitungsvorgänge, für die eine Datenschutz-Folgenabschätzung durchzuführen ist (DSFA-V), BGBl. II Nr. 278/2018.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;insbesondere Datenverarbeitung unter Einsatz von künstlicher Intelligenz, welcher jedenfalls die Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung nach sich zieht. Somit löst auch der Einsatz von KI unter gewissen Voraussetzungen datenschutzrechtliche Pflichten aus.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: Digital Services Act (DSA) vs AI Act ===&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der DSA legt einheitliche Regeln für Vermittlungsdienste mit dem Ziel fest, ein vertrauenswürdiges, (rechts-)sicheres und vorhersehbares Online-Umfeld für Verbraucher und Unternehmen durch eine harmonisierte Plattformregulierung zu gewährleisten. Ebenso zielt das Regelwerk auf den Schutz sowie die Gewährleistung einer effektiven Grundrechtsausübung und normiert umfassende Verpflichtungen für Anbieter von Online-Diensten in Form eines abgestuften Regelungsansatzes, der die unterschiedlichen Compliance-Pflichten an die Art und Größe der jeweiligen Online-Dienste knüpft. Dabei kennt der DSA folgende Anbieterkategorien: Anbieter von allgemeinen Vermittlungsdiensten, Hostingdiensten, Online- sowie Transaktionsplattformen und sehr großen Online-Plattformen (VLOPs) und -Suchmaschinen (VLOSEs). Überschneidungen mit dem AI Act können sich auf zweierlei Weise ergeben: Einerseits können KI-Anwendungen zur Generierung oder Manipulation von Inhalten verwendet werden, die dann über Vermittlungsdienste geteilt werden. Andererseits können KI-Systeme das Kernangebot des Diensteanbieters ausmachen, in der Inhaltsmoderation eingesetzt werden oder Produkt- bzw Service-Empfehlungen auf Basis von Nutzerverhalten (&amp;quot;Empfehlungsalgorithmen&amp;quot;) schalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 48, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Allgemeine Synergien sind dem [[Digital Services Act (DSA)|Eintrag über den DSA]] zu entnehmen.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
* Weiters kann es bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act in Bezug auf die notwendige Risikoanalyse kommen. &amp;lt;mark&amp;gt;So fordern die Artikel 34 und 35 DSA die Analyse jener potenzieller systemischer Risiken, die sich durch das Design, die Funktion oder die Nutzung ihrer Services ergeben, insbesondere im Zusammenhang mit algorithmischen Systemen oder Systemen zur Inhaltsmoderation. Demgegenüber legt der AI Act in Art 17 die Verpflichtung für Anbieter von Hochrisiko-KI-Systemen zur Etablierung eines Risikomanagementsystems gemäß Art 9 AI Act fest und sieht spezielle Anforderungen für Anbieter von GPAI-Modellen mit systemischem Risiko vor (Art 55 Abs 1 lit b AI Act).&amp;lt;/mark&amp;gt; Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Im Fall von Anbietern von Hochrisiko-KI-Systemen sieht der AI Act sogar explizit die Möglichkeit vor, Risikomanagementprozesse nach anderen unionsrechtlichen Bestimmungen mit jenen nach dem AI Act zu kombinieren (vgl Art 9 Abs 10 AI Act).&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 49, &amp;lt;nowiki&amp;gt;https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Art 86 AI Act normierte Recht auf Erläuterung] besteht potentiell eine Subsidiarität gegenüber anderen Auskunftsansprüchen, insb der Auskunftspflicht nach Art 15 Abs 1 lit h DSGVO iVm Art 22 DSGVO. &amp;lt;mark&amp;gt;Demnach steht Personen, die von einer automatisierten Entscheidungsfindung im Einzelfall einschließlich Profiling betroffen sind, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie ähnlich erheblich beeinträchtigt, das Recht zu, neben allgemeinen Informationen über die Verarbeitung ihrer personenbezogenen Daten aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und Auswirkungen einer derartigen Verarbeitung zu verlangen. Inhaltlich&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;richtet sich der Auskunftsanspruch nach Art 15 Abs 1 lit h DSGVO gemäß rezenter EuGH-Judikatur insb auf die Erläuterung des Verfahrens und der Grundsätze, die bei der automatisierten Verarbeitung der personenbezogenen Daten der betroffenen Person zur Anwendung kamen und zu dem bestimmten Ergebnis geführt haben.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117, Rz 58. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Frage nach einer potenziellen Subsidiarität von Art 86 AI Act gegenüber den entsprechenden datenschutzrechtlichen Vorschriften hängt von unterschiedlichen Fallszenarien ab, in denen die jeweils verwendeten Technologien und verarbeiteten Datenkategorien zu unterschiedlichen Ergebnissen führen können:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 15 Abs 1 lit h iVm Art 22 DSGVO&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsfolge&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Hochrisiko-KI-Einsatz in Entscheidungsfindungsprozessen, in denen entweder keine personenbezogenen Daten gemäß Art 4 Z 1 DSGVO verarbeitet werden (zB Verarbeitung lediglich aggregierter Daten) oder keine vollautomatisierte Entscheidung iSd Art 22 DSGVO getroffen wird (etwa weil ein Mensch maßgeblich an der Entscheidungsfindung beteiligt ist)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Das Recht auf Erklärung steht vollumfänglich wie in Art 86 Abs 1 dargelegt zu (bei Vorliegen der übrigen Voraussetzungen). Der betroffenen Person sind somit klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess und zu den wichtigsten Elementen der getroffenen Entscheidung zu übermitteln, wobei die Erklärung einzelfallbezogen und auf das konkrete Ergebnis gerichtet sein muss. Der Anwendungsbereich von Art 15 (Abs 1 lit h iVm Art 22) DSGVO ist hingegen nicht eröffnet. Das Recht, die Entscheidung anzufechten, steht - zumindest gemäß AI Act - nicht zu.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Es findet eine vollautomatisierte Entscheidungsfindung auf Basis der Verarbeitung personenbezogener Daten statt, allerdings ohne Beteiligung eines Hochrisiko-KI-Systems iSd Art 6 Abs 2 iVm Anhang III AI Act (bspw wird die Entscheidung durch einen herkömmlichen Algorithmus getroffen, der Anforderungen an ein KI-System nach Art 3 Z 1 AI Act nicht erfüllt oder das KI-System fällt nicht in den Hochrisiko-KI-Bereich)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Auskunftsanspruch gemäß Art 15 (Abs 1 lit h iVm Art 22) DSGVO steht bei Vorliegen der übrigen Voraussetzungen zu, während das Recht auf Erklärung nach Art 86 AI Act keine Anwendung findet. Es sind der betroffenen Person somit Informationen über die involvierte Logik, Tragweite und Auswirkungen der Entscheidung zu übermitteln, wobei Informationen über die Rolle des eingesetzten Systems nicht darunter fallen. Im Unterschied zu Art 86 AI Act ist in Bezug auf Art 15 Abs 1 lit h DSGVO jedoch noch unklar, ob auch eine Verpflichtung zu einer einzelfallbezogenen Begründung der konkret erzielten Ergebnisse besteht, die über eine abstrakte/allgemeine Erklärung hinausgeht.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl etwa das EuGH-Urteil in der RS Dun &amp;amp; Bradstreet, welches stärker auf das lokale Element, dh die Einzelentscheidung, abzustellen scheint (EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117). MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 71, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Art 22 Abs 3 DSGVO enthält jedoch im Gegensatz zum AI Act das Recht, die Entscheidung anzufechten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Verarbeitung personenbezogener Daten im Rahmen der Entscheidungsfindung, Einsatz eines Hochrisiko-KI-Systems, vollautomatisierte Entscheidungsfindung&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Anspruch nach Art 86 AI Act tritt ergänzend zu jenem nach der DSGVO hinzu und richtet sich auf jene Informationen, die nach Art 15 DSGVO nicht zu beauskunften sind (bspw die Rolle des KI-Systems im Entscheidungsprozess sowie jedenfalls einzelfallbezogene, lokale Erklärungen). Es handelt sich somit um eine sog &amp;quot;Lückenfüller-Position&amp;quot; von Art 86 AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Ansicht folgend und mwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 96 ff, &amp;lt;nowiki&amp;gt;https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;mark&amp;gt;In der Regel werden Betroffene in der Praxis wohl beide Ansprüche gleichzeitig geltend machen. Dies ist allerdings nur möglich, sofern beide Ansprüche auch gegenüber der selben Person bzw Einrichtung geltend zu machen sind. Denn während das Recht auf Erklärung nach Art 86 AI Act gegen den Betreiber des KI-Systems zusteht, ist der Auskunftsanspruch gemäß Art 15 Abs 1 lit h DSGVO gegen jene Person oder Stelle zu richten, welche die Entscheidung getroffen hat (welche zwar meist aber nicht zwangsläufig mit der Person des datenschutzrechtlich Verantwortlichen iSd Art 4 Z 7 DSGVO ident sein wird&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Argumentation folgend: &#039;&#039;Ziegenhorn,&#039;&#039; Wer ist Adressat des Art. 22 DSGVO? Zur Abgrenzung des Entscheiders vom Verantwortlichen, CR 2024, 586.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;). Die unterschiedlichen Rollen nach AI Act und DSGVO können somit zusammenfallen, müssen dies allerdings nicht, wodurch sich unterschiedliche Verpflichtungen für die beteiligten Akteure ergeben können.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== Produkthaftungsrichtlinie neu und Vorschlag für eine AI Liability Directive [zurückgezogen] ===&lt;br /&gt;
&lt;br /&gt;
* Die Produkthaftungsrichtlinie neu (PHRL neu) und insbesondere &amp;lt;mark&amp;gt;der (zurückgezogene)&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Commission work programme 2025, (11.2.2025) COM(2025) 45 final, 26.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Vorschlag für eine&amp;lt;/mark&amp;gt; AI Liability Directive (AILD) nehmen direkt auf den AI Act Bezug und verweisen bei der Begriffsverwendung häufig auf diesen. Die AILD kann somit nicht ohne den Kontext des AI Act verstanden werden. So sollten die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD bilden ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]). &lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act überträgt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Begleit- bzw Durchführungsgesetz, das die Sanktionen konkretisiert.  &amp;lt;mark&amp;gt;Auch die notifizierende(n) Behörde(n) und die Marktüberwachungsbehörde(n) (Art 70 AI Act) wurden in Österreich noch nicht benannt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 5: Transkriptionstool im Rahmen der Rechtspflege&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|&amp;lt;mark&amp;gt;Im Rahmen des Verfassens von Urteilen oder Protokollen wird das gesprochene Wort (Diktat des Entscheidungsorgans) digital aufgezeichnet und anschließend transkribiert. Das System ist in der Lage, mithilfe KI-gestützter Spracherkennung die jeweils Sprechenden (Speaker Diarisation) sowie juristische Begriffe und Redewendungen zu erkennen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Transkriptionssoftware liegt ein Sprachmodell (LLM) zugrunde, das auf maschinellem Lernen basiert. Dieses wird durch ein User-Interface praktisch nutzbar gemacht und stellt somit ein KI-System iSd AI Act dar.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&amp;lt;mark&amp;gt;Der Einsatz von KI in der Rechtspflege zu gewissen Zwecken kann in den Hochrisiko-KI-Bereich gemäß Art 6 Abs 2 iVm Anhang III Nr 8 lit a AI Act fallen. Solche Systeme sind jedoch nicht als hochriskant einzustufen, sofern sie für rein begleitende administrative Tätigkeiten bestimmt sind, worunter jedenfalls Spracherkennungsprogramme für das Diktieren von Entscheidungen fallen können (ErwGr 61). In einem nächsten Schritt ist die Ausnahmeregelung des Art 6 Abs 3 AI Act zu prüfen, wonach das System höchstwahrscheinlich gemäß lit a leg cit aus dem Hochrisiko-KI-Bereich ausgenommen ist, da es rein für Protokollierungszwecke eingesetzt wird und damit nur eine eng gefasste Verfahrensaufgabe übernimmt. Ebenso ist denkbar, gemäß lit d leg cit aus dem Hochrisiko-KI-Bereich ausgenommen zu sein, sofern das System lediglich eine vorbereitende Aufgabe für die Urteilserstellung übernimmt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Bejaht man hingegen das Vorliegen von Hochrisiko-KI, so treffen deren Anbieter die Pflichten der Art 8 ff AI Act und den Betreiber insbesondere die Pflichten nach Art 26 und 27 AI Act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Sofern es sich um ein KI-Modell mit allgemeinem Verwendungszweck (mit systemischem Risiko) handelt, treffen den Anbieter diesbezüglich Verpflichtungen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Unabhängig von der Risikoeinstufung des Modells bzw Systems sind darüber hinaus die Transparenzpflichten nach Art 50 AI Act zu beachten sowie ein ausreichendes Maß an KI-Kompetenz unter den Beschäftigten, die mit dem Transkriptionstool arbeiten, herzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 6: KI-System zur Filterung und Priorisierung von Bewerbungen&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Sachverhalt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen möchte eine neue Stelle besetzen und erhält unzählige Bewerbungen. Daher entschließt es sich, ein KI-basiertes System einzusetzen, das Bewerbungen filtert und mit einem Einstufungswert versieht, wodurch die Bewerbungen priorisiert werden. Die zuständigen HR-Mitarbeiter*innen weichen nicht mehr von dem Wert ab und vergeben die Stelle schließlich an jene Person, die den höchsten Einstufungswert erhalten hat.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!&amp;lt;mark&amp;gt;Einordnung AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Sofern es sich bei der Anwendung um ein KI-System nach Art 3 Z 1 AI Act handelt, ist der Anwendungsbereich des AI Act grundsätzlich eröffnet. Das Unternehmen ist jedenfalls als dessen Betreiber zu qualifizieren, da es das System in eigener Verantwortung zu beruflichen Zwecken einsetzt. Sofern es das KI-System auch selbst entwickelt / entwickeln lässt und es unter eigener Marke bzw eigenem Namen in Betrieb nimmt, ist es sogar Anbieter.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]].&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Darüber hinaus stellt das System ein &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System nach Art 6 Abs 2 iVm Anhang III Punkt 4a AI Act dar, da es bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet wird, um Bewerbungen zu filtern und Bewerber zu bewerten. Eine Ausnahme nach Art 6 Abs 3 AI Act vom Hochrisiko-KI-Bereich liegt nicht vor, da das KI-System das Ergebnis der Entscheidungsfindung wesentlich beeinflusst (von dem KI-generierten Eignungswert wird nicht mehr abgewichen). Je nach Rolle treffen das Unternehmen nun weitereichende Verpflichtungen. In den meisten Fällen wird das Unternehmen wohl als Betreiber zu klassifizieren sein, weshalb es unter anderem die Betreiberpflichten nach Art 26 AI Act zu erfüllen und unter gewissen Voraussetzungen eine Grundrechte-Folgenabschätzung nach Art 27 AI Act durchzuführen hat. Art 26 Abs 7 sieht grundsätzlich auch die spezielle Betreiberpflicht vor, vor Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz die Arbeitnehmervertreter und betroffenen Arbeitnehmer über den KI-Einsatz zu informieren. Inwieweit diese Verpflichtung auch gegenüber Bewerbern gilt, die streng genommen (noch) keine Arbeitnehmer sind, ist fraglich und wird wohl zu verneinen sind. Diese vermeintliche Rechtsschutzlücke wird jedoch ohnehin wieder durch die Verpflichtung gemäß Art 26 Abs 11 AI Act ausgeglichen, von Hochrisiko-KI-Entscheidungen betroffene Personen über diesen KI-Einsatz zu informieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= &amp;lt;mark&amp;gt;Digitaler Omnibus&amp;lt;/mark&amp;gt; =&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 19. November 2025 stellte die Europäische Kommission das sogenannte &#039;&#039;&#039;„Digital Omnibus Package“&#039;&#039;&#039; vor, ein Legislativpaket mit dem Ziel, den digitalen Rechtsrahmen der EU zu vereinfachen.&amp;lt;ref name=&amp;quot;:2&amp;quot;&amp;gt;Vgl https://ec.europa.eu/commission/presscorner/detail/de/ip_25_2718. &amp;lt;/ref&amp;gt; Ziel der Maßnahme ist, Verwaltungs- und Umsetzungskosten zu senken, Rechtsklarheit zu erhöhen und insbesondere kleine und mittlere Unternehmen (KMU) zu entlasten, da Unternehmen zunehmend Schwierigkeiten bei der Umsetzung und Koordination von Vorgaben wie etwa dem AI Act sehen. Das Paket umfasst Änderungen und Anpassungen unterschiedlicher Rechtsrahmen, so auch einige Bestimmungen des AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Inhaltliche Änderungen betreffen einerseits die Verpflichtung zur Sicherstellung von KI-Kompetenz (Art 4), welche nunmehr nicht Unternehmen bzw. Einrichtungen selbst treffen soll, sondern die Kommission und die Mitgliedstaaten sind dazu angehalten, Anbieter und Betreiber zur Sicherstellung eines angemessenen Maßes an KI-Kompetenz zu unterstützen. Ebenso stellt die Kommission eine Verzögerung der Anwendbarkeit der Hochrisiko-KI-Bestimmungen in Aussicht, welche mit 2. August 2026 bzw 2. August 2027 Anwendung erlangen sollten. Grund ist das Fehlen von entsprechenden Standards, die eigentlich bis August 2025 zu setzen waren und ohne die laut Kommission die Einhaltung der entsprechenden AI Act-Bestimmungen nicht möglich sei. Die Anwendbarkeit der Hochrisiko-KI-Bestimmungen soll sich um bis zu maximal 16 Monate verzögern, wobei die Vorschriften Geltung erlangen, sobald die Kommission die Verfügbarkeit der erforderlichen Standards und Unterstützungsinstrumente bestätigt.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:2&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus enthält der Vorschlag einen neuen Art 4a, der die Verarbeitung sensibler personenbezogener Daten zur Erkennung und Minderung von Bias unter gewissen Voraussetzungen ermöglicht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Kommissionsleitlinien und sonstige Materialen/Verhaltenskodizes&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zur Definition eines Systems der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 6. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118628&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 4. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118661&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Living Repository zur Förderung des Lernens und des Austausches über KI-Kompetenz vom 04. Februar 2025 (mit Update von April 2025): https://ec.europa.eu/newsroom/dae/redirection/document/112203&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Praxisleitfaden für KI-Modelle mit allgemeinem Verwendungszweck (General-Purpose AI Code of Practice) vom 10. Juli 2025: https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Transparenz: https://ec.europa.eu/newsroom/dae/redirection/document/118120&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Urheberrecht: https://ec.europa.eu/newsroom/dae/redirection/document/118115&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Sicherheit: https://ec.europa.eu/newsroom/dae/redirection/document/118119&amp;lt;/mark&amp;gt;  &lt;br /&gt;
*&amp;lt;mark&amp;gt;Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act vom 18. Juli 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118340&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;Leitlinien und Meldevorlagen zur Meldung schwerwiegender KI-Vorfälle gemäß Art 73 AI Act (&#039;&#039;Entwurf, noch in Ausarbeitung&#039;&#039;): https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; AI Act Service Desk. Frequently Asked Questions (FAQs): https://ai-act-service-desk.ec.europa.eu/en/faq.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act)&amp;lt;mark&amp;gt;&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024) &amp;lt;mark&amp;gt;(2. Auflage 2026, iE)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schefzig/Kilian,&#039;&#039; BeckOK KI-Recht&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Hochrangige Expertengruppe für Künstliche Intelligenz,&#039;&#039; Ethik-Leitlinien für eine vertrauenswürdige KI (2019), https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425&amp;lt;/mark&amp;gt;&lt;br /&gt;
* [https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0 Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA)]&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4307</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4307"/>
		<updated>2025-11-26T21:09:06Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* GPAI-Modelle (Art 51 ff AI Act) */ General-Purpose AI Code of Practice&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. Februar 2025 (schrittweise)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen von KI-Systemen &lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD, &amp;lt;mark&amp;gt;von der Kommission zurückgezogen&amp;lt;/mark&amp;gt;)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modelle (general purpose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB Verarbeitung zur Vermeidung von Verzerrungen, Art 10), regulatory sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (zB Anbieter- und Betreiberpflichten, Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz (eingeschränkt); reine Forschungszwecke &lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) gelten seit 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (zB Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|Gewährleistung von Transparenz und Verantwortlichkeit&lt;br /&gt;
|Pflichten für Betreiber (professionelle Nutzer*innen) und Anbieter&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (zB Chatbots, Deepfakes)&lt;br /&gt;
|Informationspflichten nach der DSGVO&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
&amp;lt;mark&amp;gt;Der AI Act ist die erste EU-weite, sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) und&amp;lt;/mark&amp;gt; folgt dabei primär einem produktsicherheitsrechtlichem Ansatz, dessen vorrangiges Regulierungsziel die Sicherheit von KI-Systemen und Modellen ist. &amp;lt;mark&amp;gt;Damit ist er Teil des sog [https://single-market-economy.ec.europa.eu/single-market/goods/new-legislative-framework_en?prefLang=de &amp;quot;New Legislative Framework&amp;quot;] (NLF), einem unionsrechtlichen Maßnahmenpaket zur Produktregulierung, das auf die Verbesserung der Marktüberwachung abzielt und sich durch einheitliche Kernelemente auszeichnet (zB Konformitätsbewertungsverfahren, Selbstregulierung, Standards und einheitliche Anforderungen). Im Rahmen des Gesetzgebungsprozesses wurde der Rechtsakt - insbesondere auf Bestreben des Europäischen Parlaments - um menschenrechtliche Aspekte und Betroffenenrechte erweitert, weshalb der AI Act mittlerweile deutlich über reines Produktsicherheitsrecht hinausgeht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modelle&#039;&#039;&#039; bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot;.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei handelt es sich um &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;ableitet&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot;&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe Art 3 Z 1 AI Act. Hervorhebungen nicht im Original. &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;abzuleiten&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Hingegen soll sich nach ErwGr 12 der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen [...]&amp;quot;, womit auf eine Abgrenzung von KI von herkömmlichen Softwarelösungen und Programmierungsansätzen abgezielt wird.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zusammenfassend möchte der EU-Gesetzgeber mit dieser Definition einerseits Rechtssicherheit schaffen, allerdings immer noch Raum für technologischen Fortschritt lassen, um den Anwendungsbereich des AI Act nicht von Vornherein vor potenziellen künftigen technologischen Entwicklungen zu verschließen.&amp;lt;/mark&amp;gt; Dennoch wurde die Definition als zu vage und unbestimmt empfunden. So wurden diverse Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Um den Begriff des KI-Systems also zu konkretisieren und Unsicherheiten zu beseitigen, sollte die Kommission gemäß Art 96 Abs 1 lit f AI Act Leitlinien vorlegen, und damit eine einheitliche Anwendung des Regelwerks fördern sowie Rechtsicherheit gewährleisten&amp;lt;/mark&amp;gt;.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle, &amp;lt;mark&amp;gt;einfache Datenverarbeitungssysteme, auf klassische Heuristik gestützte Systeme, einfache Vorhersagesysteme etc.&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Eine Positiv-Liste, welche Systeme jedenfalls unter den KI-Begriff fallen, enthalten die Leitlinien allerdings nicht. Sie orientieren sich vielmehr an den 7 Kernelementen der KI-Definition gemäß Art 3 Z 1 AI Act. Es wird überdies betont, dass nicht alle Elemente kontinuierlich in den beiden Hauptphasen des Lebenszyklus von KI (&amp;quot;building phase&amp;quot; / &amp;quot;pre-deployment&amp;quot; oder &amp;quot;use phase&amp;quot; / &amp;quot;post-deployment&amp;quot;) vorhanden sein müssen und, dass sich die Leitlinien kontinuierlich weiterentwickeln sollen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Folgende Konkretisierungen der KI-Definition und Beispiele sind den Leitlinien zu entnehmen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Elemente der KI-Definition&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Erläuterungen in den Leitlinien der EU-Kommission&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Maschinengestütztes System&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;KI benötigt Hardware- und Softwarekomponenten&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB eine Hardwareinfrastruktur wie processing units, Speicher, Input/Output-Schnittstellen und Software (Code, Programme etc.)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;autonomer Betrieb (in unterschiedlichem Grade)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erfordert einen gewissen Grad an Unabhängigkeit von menschlichem Eingreifen, wobei Systeme, die vollständig manuelle menschliche Interaktion erfordern, nicht darunter fallen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Umfasst sind Systeme, die zwar einen manuellen Input erfordern, aber von selbst einen Output generieren (zB Chatbots)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anpassungsfähigkeit nach Betriebsaufnahme (optional)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Selbstlernfähigkeiten (nicht zwingend erforderlich); darunter versteht man, ob sich das Verhalten des Systems während seiner Verwendung anpassen oder verändern kann (zB automatisches Lernen, wie Muster oder Beziehungen zwischen Daten erkannt werden können).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungsfähigkeit&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Inferenz, Schlüsseleigenschaft; dient der Abgrenzung von KI-Systemen von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen. Nicht umfasst sind hingegen Systeme, die nur von Menschen programmierten Regeln folgen und automatisiert Operationen ausführen. Die Ableitungsfähigkeit bedeutet daher die Erlernung allgemeiner Konzepte statt fester, vorprogrammierter Regeln.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Bsp: maschinelles Lernen, logik- und wissensgestützte Systeme (Schlussfolgerungen mittels Deduktion oder Induktion)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitung aus Eingaben für implizite oder explizite Ziele&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungen müssen nach entweder:&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;expliziten Zielen (klar definierte, direkt in den Code programmierte Ziele, Optimierung von Kostenfunktionen, Wahrscheinlichkeitsberechnung) oder&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;impliziten Zielen (Ableitung des Ziels aus dem Verhalten oder den dahinterstehenden Annahmen des Systems; bspw Trainingsdaten oder Interaktion des Systems mit Umwelt) erfolgen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erzeugung von Ausgaben&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ausgabe-Arten umfassen unter anderem&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Vorhersagen (Schätzungen unbekannter Werte basierend auf komplexen Datenmustern)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Inhalte (Texte, Bilder, Videos oder Musik)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Empfehlungen (Vorschläge für Maßnahmen, Produkte oder Dienstleistungen, die hochgradig personalisiert sind und Massendaten nutzen).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Entscheidungen (Vollautomatisierte Schlussfolgerungen oder Auswahlentscheidungen, die Prozesse automatisieren, die üblicherweise menschlichem Urteilsvermögen vorbehalten sind)&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;zB die generierten Inhalte von Chatbots, Produktvorschläge, Echtzeit-Vorhersagen, Auswahlentscheidungen&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Beeinflussung physischer oder virtueller Umgebungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Frage, ob das System einen aktiven Einfluss auf die Umgebungen hat, in denen es eingesetzt wird, sei es auf materielle physische Objekte oder auf digitale Räume&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB Roboterarm, Software-Ökosysteme, Datenströme&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}  &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI-Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit aus, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). &amp;lt;mark&amp;gt;Man kann hier den Vergleich zu einem KFZ ziehen, wobei das KI-Modell den Motor darstellt, der die eigentliche &amp;quot;Arbeit&amp;quot; leistet. Um jedoch fahrtüchtig zu sein, bedarf es nicht nur eines Motors, sondern das Fahrzeug benötigt darüber hinaus eine Karosserie, Räder, ein Lenkrad etc. Das wiederum bezeichnet das KI-System, welches das Modell erst durch seine Schnittstellen, seine Benutzeroberfläche etc. &amp;quot;fahrtüchtig&amp;quot; und damit nutzbar macht.&amp;lt;/mark&amp;gt; Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen &amp;quot;Nutzer&amp;quot;) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder sich in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollen:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität), unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act trat am &#039;&#039;&#039;1. August 2024&#039;&#039;&#039; in Kraft und wird generell am &#039;&#039;&#039;2. August 2026&#039;&#039;&#039; anwendbar (Art 113 AI Act). Gestaffelt erlangen einige Bestimmungen jedoch bereits vorab oder danach Geltung:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab &#039;&#039;&#039;2. August 2025&#039;&#039;&#039;&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem &#039;&#039;&#039;2. August 2027&#039;&#039;&#039;&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 111 Abs 2 AI Act enthält dabei jedoch eine sog „grandfathering“-Klausel, nach welcher der AI Act für Betreiber von Hochrisiko-KI-Systemen, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, nur dann gilt, wenn diese Systeme danach in ihrer Konzeption erheblich verändert wurden.&amp;lt;ref&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 23, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Verpflichtung zur Maßnahmenergreifung gilt für Betreiber und Anbieter gleichermaßen und ist ferner unabhängig von der Risikoklasse der infragestehenden KI-Anwendung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Unter KI-Kompetenz versteht man grundsätzlich &amp;quot;die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.&amp;quot;&amp;lt;ref&amp;gt;Vgl die Definition in Art 3 Z 56 AI Act.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dies umfasst die notwendigen Kompetenzen, um fundierte Entscheidungen über KI-Systeme zu treffen, technische Elemente zu verstehen sowie korrekt anzuwenden, die Auswirkungen von KI-basierten Entscheidungen auf Betroffene zu verstehen und KI-generierte Ausgaben angemessen zu interpretieren.&amp;lt;ref name=&amp;quot;:1&amp;quot;&amp;gt;Vgl ErwGr 20 AI Act. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dazu gehört auch, den einschlägigen Akteuren der KI-Wertschöpfungskette jene erforderlichen Kenntnisse zu vermitteln, um die Einhaltung und Durchsetzung der Vorschriften des AI Act zu gewährleisten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Weitere Konkretisierungen oder zwingende Mindestvorgaben für die Sicherstellung der KI-Kompetenz enthält der AI Act allerdings nicht und betont sogar, dass die Konzepte der KI-Kompetenz in Bezug auf den jeweiligen Kontext unterschiedlich sein können.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:1&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Die EU-Kommission hat daher ein [https://digital-strategy.ec.europa.eu/de/library/living-repository-foster-learning-and-exchange-ai-literacy &amp;quot;Living Repository&amp;quot;] angelegt, in dem Unternehmen ihre Praktiken in Bezug auf KI-Kompetenz eingetragen haben. Das Repository wird laufend ergänzt, ist jedoch nicht rechtsverbindlich. Weiters bilden die darin enthaltenen Praktiken keine Garantie zur Compliance mit Art 4 AI Act, allerdings stellen sie eine gute Orientierung dar, welche Maßnahmen zur Sicherstellung von KI-Kompetenz in unterschiedlichen Branchen bereits ergriffen werden. Häufig genannte Praktiken umfassen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne eLearning-Plattformen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne Weiterbildungen und Trainingsprogramme,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Kenntnis-basierte Schulungen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Video-/Podcast-Reihen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;spielebasierte Trainings,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Erstellung von KI-Verhaltenskodizes und Risikobewertungssystemen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;eigene Chatbots zum Training im Umgang mit Sprachmodellen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Denkbar ist überdies die Teilnahme an externen Fortbildungen und Schulungen, die Entwicklung von internen Richtlinien (&amp;quot;KI-Guidelines&amp;quot;) oder die Schaffung von sog &amp;quot;KI-Beauftragten&amp;quot; in der Organisation. Ob die Schulungsmaßnahmen fortlaufend zu erfolgen haben, ist rechtlich nicht vorgeschrieben, wird allerdings anzunehmen sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Dieser Ansicht folgend: &#039;&#039;Siglmüller&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 4 KI-Kompetenz Rz 5.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Ebensowenig sind die genauen Inhalte der Kompetenzvermittlungsmaßnahmen definiert. Es kann jedenfalls davon ausgegangen werden, dass diese zielgruppengerecht und zugeschnitten auf unterschiedliche Bedürfnisse erfolgen sollten. Weiters werden sie sich bei manchen Branchen, KI-Einsatzgebieten oder Personengruppen nicht lediglich auf rechtliche oder technische Anforderungen beschränken, sondern ebenso soziale und ethische Komponenten umfassen. Bei der Entwicklung und Nutzung von GPAI-Modellen wird beispielsweise die Vermittlung von Kenntnissen im Zusammenhang mit Urheberrecht, Datenschutz, &amp;quot;Bias&amp;quot; (Verzerrungen) oder &amp;quot;Halluzinationen&amp;quot; (erfundene falsche Ausgaben) sinnvoll sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger,&#039;&#039; Wissenskultur im KI-Zeitalter – eine Auseinandersetzung mit der KI-Kompetenz nach Art 4 AI Act und ihren praktischen Implikationen, ZIIR 2025, 250.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die EU-Kommission hat darüber hinaus eine [https://digital-strategy.ec.europa.eu/de/faqs/ai-literacy-questions-answers &amp;quot;FAQ-Seite&amp;quot;] mit Fragen und Antworten zur KI-Kompetenz angelegt, um einen besseren Überblick über die Anforderungen zu geben.&amp;lt;/mark&amp;gt;    &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten, &amp;lt;mark&amp;gt;da sie besonders schädlich sind, enormes Missbrauchspotenzial aufweisen und im Widerspruch zu europäischen Grundrechten und Grundfreiheiten stehen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 28 AI Act.&amp;lt;/mark&amp;gt; MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt; (Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt; Folgende Praktiken sind davon umfasst: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Praktik&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Nicht erfasste Praktiken&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsgrundlage&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Unterschwellige Beeinflussung außerhalb des Bewusstseins oder manipulative/täuschende Techniken&#039;&#039;&#039;, wodurch die freie Entscheidungsfähigkeit von Personen beeinträchtigt wird und ein Schaden mit hinreichender Wahrscheinlichkeit eintritt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ableitung sensibler Informationen aus Gehirnen von Nutzern über Maschine-Gehirn-Schnittstellen&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 29 AI Act sowie Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 66.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Chatbots, die zur Selbstverletzung verleiten&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 87.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Unterschwellige visuelle oder auditive Reize bzw generelle sensorische Manipulation&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 65 und 68.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erlaubt ist hingegen der Einsatz eines KI-Systems, das personalisierte Empfehlungen auf der Grundlage transparenter Algorithmen und Nutzerpräferenzen verwendet, und sich nicht absichtlich manipulativer Techniken bedient.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 128.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit a&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Ausnutzen der Vulnerabilität/Schutzbedürftigkeit&#039;&#039;&#039; aufgrund des Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine KI-Begleit-App, die durch gewisse Sprachmuster und Verhaltensweisen gezielt emotionale Abhängigkeiten und ungesunde Bindungen bei älteren Menschen erzeugt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-gestütztes Spielzeug, das Kinder zu riskanten Herausforderungen ermutigt oder durch süchtig machende Techniken zu übermäßigem Spielen anregt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte &amp;quot;Grooming-Praktiken&amp;quot; (gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht), um Mädchen mit Behinderung im Internet anzusprechen und zu manipulieren&amp;lt;ref&amp;gt;Vgl Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 88 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Kinder beim Lernen einer Fremdsprache durch den Einsatz unterschwelliger Techniken unterstützen soll, sofern sie transparent arbeitet und die Nutzerautonomie wahrt.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Benommenheit und Ermüdung bei Fahrern erkennen und sie im Einklang mit den Sicherheitsvorschriften mit Warnmeldungen auf Ruhepausen hinweisen, gelten ebenso nicht als Ausnutzung von Vulnerabilitäten.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 130ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit b&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social scoring&#039;&#039;&#039; (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Verwendung eines KI-Systems zur Schätzung der Betrugswahrscheinlichkeit bei Empfängern von Haushaltszulagen durch das Sozialamt, das sich auf Merkmale stützt, die in sozialen Kontexten ohne offensichtlichen Zusammenhang mit oder Relevanz für die Bewertung von Betrug erhoben oder abgeleitet werden, wie zB ein Ehepartner mit einer bestimmten Staatsangehörigkeit oder ethnischen Herkunft, der Besitz eines Internetanschlusses, das Verhalten auf sozialen Plattformen oder die Leistung am Arbeitsplatz etc.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems durch eine öffentliche Stelle, um für die Früherkennung gefährdeter Kinder anhand von Kriterien wie der psychischen Gesundheit und Arbeitslosigkeit der Eltern, aber auch anhand von aus verschiedenen Kontexten abgeleiteten Informationen über das soziale Verhalten der Eltern Familienprofile zu erstellen. Auf der Grundlage der erzielten Bewertung werden Familien für Kontrollen ausgewählt und als „gefährdet“ geltende Kinder werden aus ihren Familien genommen, unter anderem auch in Fällen geringfügiger Übertretungen seitens der Eltern, wie zB gelegentlich verpasste Arzttermine oder verhängte Verkehrsstrafen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine Regierung führt ein umfassendes KI-gestütztes System ein, das die Bürgerinnen und Bürger auf der Grundlage ihres Verhaltens in verschiedenen Lebensbereichen wie sozialen Interaktionen, Online-Aktivitäten, Kaufgewohnheiten und Pünktlichkeit bei der Begleichung von Rechnungen überwacht und einstuft. Menschen mit einer niedrigeren Bewertung müssen damit rechnen, dass sie eingeschränkten Zugang zu öffentlichen Dienstleistungen erhalten, höhere Zinsen auf Kredite zahlen und auf Reisen und bei der Suche nach einer Wohnung oder sogar einem Arbeitsplatz Schwierigkeiten haben.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 166 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Bonitätsprüfung natürlicher Personen auf Basis persönlicher Merkmale wie dem Einkommen vor Vergabe eines Kredits.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basierte Erhebung von Geschwindigkeitsüberschreitungen oder hochriskantem Fahrverhalten, die zur Erhöhung der KFZ-Versicherungsprämien führen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte gezielte kommerzielle Werbung fällt nicht in den Anwendungsbereich, wenn sie auf relevanten Daten (z. B. Nutzerpräferenzen) beruht, im Einklang mit den Rechtsvorschriften der Union über Verbraucherschutz, Datenschutz und digitale Dienste erfolgt und nicht zu einer Schlechterstellung oder Benachteiligung führt, die in keinem angemessenen Verhältnis zur Tragweite des sozialen Verhaltens des Nutzers steht (z. B. ausbeuterische und unfaire differenzierte Preisgestaltung).&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 177.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit c&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Bewertung des Risikos, dass eine Person eine Straftat&#039;&#039;&#039; begeht (ausschließlich aufgrund von Profiling)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Eine Polizeidienststelle verwendet KI-gestützte Risikobewertungsinstrumente, um das Risiko zu bewerten, dass kleine Kinder und Jugendliche an „künftigen Gewalttaten und Eigentumsdelikten“ beteiligt sein werden. Das System bewertet Kinder auf der Grundlage ihrer Beziehungen zu anderen Menschen und deren vermeintlichen Risikoniveaus, dh es wird eventuell davon ausgegangen, dass bei Kindern ein höheres Risiko für die Begehung von Straftaten besteht, einfach weil sie mit einer anderen Person wie einem Geschwisterkind oder einem Freund verbunden sind, bei der eine hohe Risikobewertung vorliegt. Das Risikoniveau der Eltern kann sich ebenfalls auf das Risikoniveau eines Kindes auswirken.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 202.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Standortbezogene oder geodatenbasierte Vorhersagen oder ortsbezogene Verbrechensvorhersagen (zB KI-System zur Berechnung der Kriminalitätswahrscheinlichkeit in bestimmten Stadtgebieten oder von Schmuggelrouten)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Unterstützung der durch Menschen durchgeführten Bewertung, die sich auf objektive und überprüfbare Tatsachen stützt, die in Zusammenhang mit einer kriminellen Aktivität stehen (zB Profiling zur Vorhersage gefährlichen Verhaltens in einer Menschenmenge, KI-basiertes Profiling von Personen, gegen die bereits ein Verdacht besteht, der auf mehreren überprüfbaren, objektiven Tatsachen beruht).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basiertes Profiling in Bezug auf juristische Personen&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur individuellen Vorhersage von Ordnungswidrigkeiten (zB Bagatellverkehrsdelikte)&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 212 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit d&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erstellung/Erweiterung von &#039;&#039;&#039;Datenbanken&#039;&#039;&#039; zur Gesichtserkennung durch &#039;&#039;&#039;ungezieltes Auslesen von Gesichtsbildern&#039;&#039;&#039;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen für Gesichtserkennungssoftware sammelt Bilder von Gesichtern, die mit einem „automatisierten Bildausleser“, der das Internet durchsucht und Bilder mit menschlichen Gesichtern erkennt, aus sozialen Medien (zB Facebook, X) ausgelesen wurden. Der Bildausleser sammelt diese Bilder mit allen damit verbundenen Informationen (wie der Quelle des Bildes (URL), der Geolokalisierung und manchmal den Namen der einzelnen Personen). Die Gesichtsmerkmale werden dann aus den Bildern extrahiert und in mathematische Darstellungen umgewandelt, die für die Indexierung und den künftigen Vergleich mit Hashtags versehen werden. Wenn ein Nutzer das Bild einer Person in das KI-System hochlädt, wird dieses System bestimmen, ob dieses Bild mit einem Gesicht in der Datenbank übereinstimmt.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 232.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Das ungezielte Auslesen anderer biometrischer Daten als Gesichtsbilder (zB Stimmaufnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Gesichtsbilddatenbanken, die nicht für die Erkennung von Personen verwendet werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Gesichtsbilder aus dem Internet sammeln, um KI-Modelle zur Erzeugung neuer Bilder fiktiver Personen zu entwickeln&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit e&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Emotionserkennungssysteme&#039;&#039;&#039; am Arbeitsplatz oder in Bildungseinrichtungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das beispielsweise aus Gesten, Stirnrunzeln oder fehlendem Lächeln ableitet, dass ein Mitarbeiter unglücklich, traurig oder gegenüber den Kunden wütend ist&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Systeme, die aus Stimmführung oder Körpersprache ableiten, dass ein Schüler zornig und im Begriff ist, gewalttätig zu werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Emotionen aus Tastenanschlägen (Art des Tippens), Gesichtsausdrücken, Körperhaltungen oder Bewegungen ableitet, beruht auf biometrischen Daten und fällt in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die den emotionalen Ton in hybriden Arbeitsteams überwachen, indem sie Emotionen aus Stimm- und Bildaufnahmen hybrider Videokonferenzen erkennen und ableiten, was in Regel der Förderung des sozialen Bewusstseins, des Managements emotionaler Dynamik und der Konfliktverhütung dienen würde&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems bei Online-Prüfungen zur Erkennung von Emotionen wie Erregungs- und Angstzustände&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung zur Bewertung des Wohlbefindens, des Motivationsniveaus und der Arbeits- oder Lernzufriedenheit von Studierenden oder Arbeitnehmern.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der Einsatz von KI-Erkennungssystemen, um auf die Ermüdung eines Berufspiloten oder -fahrers zu schließen, ihn zu warnen und ihm zu empfehlen, zur Vermeidung von Unfällen Pausen einzulegen, da Emotionserkennung keine physischen Zustände wie Schmerzen oder Ermüdung einschließt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das aus schriftlichen Texten (Analysen von Inhalt und Stimmung) Emotionen ableitet, um den Stil oder den Ton eines bestimmten Artikels zu bestimmen, beruht nicht auf biometrischen Daten und fällt daher nicht in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Werden Emotionserkennungssysteme nur zu persönlichen Schulungszwecken eingesetzt, sind sie zulässig, sofern die Ergebnisse nicht Personen mit Personalverantwortung zur Verfügung gestellt werden und keine Auswirkungen auf das Arbeitsverhältnis haben&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die durch eine Bildungseinrichtung erfolgende Verwendung einer KI-gestützten Software zur Verfolgung der Augenbewegungen bei Online-Prüfungen Studierender, um den Fixierungspunkt und die Bewegung der Augen zu verfolgen (um beispielsweise zu erkennen, ob unerlaubtes Material verwendet wird), ist nicht verboten, da das System Emotionen weder erkennt noch ableitet&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung aus medizinischen Gründen zur Unterstützung von Arbeitnehmern oder Studierenden mit Autismus und zur Verbesserung der Barrierefreiheit für blinde oder gehörlose Menschen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit f&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Kategorisierung,&#039;&#039;&#039; Ableitung von sensiblen Daten (religiöse Weltanschauung, politische Einstellung)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Personen, die auf einer Plattform sozialer Medien aktiv sind, nach ihrer angenommenen politischen Ausrichtung kategorisiert, indem es die biometrischen Daten der von ihnen auf die Plattform hochgeladenen Fotos analysiert, um ihnen gezielte politische Nachrichten zu übermitteln&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;ein System zur biometrischen Kategorisierung, das für sich in Anspruch nimmt, die religiöse Ausrichtung einer Person aus ihren Tätowierungen oder ihrem Gesicht ableiten zu können.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 280 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die mit der Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze, auch zu Strafverfolgungszwecken, befasst sind (zB bei Verdacht auf Darstellungen sexuellen Kindesmissbrauchs)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;die Kategorisierung von Patienten, bei der Bilder nach ihrer Haut- oder Augenfarbe verwendet werden, für medizinische Diagnosen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 284 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit g&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Echtzeit-Fernidentifizierungssysteme&#039;&#039;&#039; in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die polizeiliche Verwendung von Systemen zur biometrischen Echtzeit-Fernidentifizierung zu dem Zweck, Ladendiebe zu identifizieren und ihre Gesichtsbilder mit Kriminaldatenbanken zu vergleichen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 328.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung von Echtzeit-Gesichtserkennungstechniken durch die Polizei nach einem schweren Terroranschlag auf einen Weihnachtsmarkt mit zwölf Toten, um den Täter zu identifizieren und festzustellen, wohin er flieht. In diesem Zusammenhang nutzen sie auch die Echtzeit-Gesichtserkennungstechnik des nahe gelegenen Bahnhofs und der Zielbahnhöfe der Züge, die kurz nach dem Angriff von dort abgehen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 354.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit h&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&amp;lt;br /&amp;gt;&lt;br /&gt;
Einige dieser Praktiken sind darüber hinaus bereits nach anderen Rechtsvorschriften verboten, so beispielsweise gewisse manipulative und täuschende Techniken als &amp;quot;dark patterns&amp;quot; nach dem [[Digital Services Act (DSA)|Digital Services Act]] (gilt nur für bestimmte Plattform-Anbieter) oder die Verarbeitung biometrischer Daten zur Identifizierung einer Person nach Art 9 Abs 1 DSGVO, sofern keine der in Abs 2 genannten Ausnahmen vorliegt. Gemäß der neuen Plattformarbeitsrichtlinie&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Richtlinie (EU) 2024/2831 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit, ABl L 11. 11. 2024.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;, die bis Dezember 2026 in nationales Recht umzusetzen ist, ist überdies der Einsatz von automatisierten Überwachungs- und Entscheidungssystemen zur Erfassung personenbezogener Daten über den emotionalen oder psychischen Zustand einer Person (Emotionserkennung) verboten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;MwN &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2024) Art 5 Rz 104.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act klassifiziert Hochrisiko-KI-Systeme in Art 6. Dabei kennt er zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige&amp;quot; Hochrisiko-KI-Systeme bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei folgenden Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder stellt selbst ein solches Produkt dar&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten: bspw biometrische Identifizierung, kritische Infrastrukturen, grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle, Justiz und demokratische Prozesse).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis einer Entscheidungsfindung, an der das System beteiligt ist, wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot; &amp;lt;mark&amp;gt;Als Profiling gilt dabei iSd Art 4 Abs 4 DSGVO jede automatisierte Verarbeitung personenbezogener Daten, die darin besteht, bestimmte persönliche Aspekte einer Person zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, Gesundheit, persönliche Vorlieben, Zuverlässigkeit, Verhalten etc. zu analysieren oder vorherzusagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Europäische Kommission hat im Rahmen von Public Consultations unter anderem auch Rückmeldungen zu Anforderungen an Hochrisiko-KI-Systeme eingeholt, die eine Grundlage für Leitlinien bilden sollen, welche im Februar 2026 veröffentlicht werden sollen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;European Commission, Commission launches public consultation on high-risk AI systems, https://digital-strategy.ec.europa.eu/en/news/commission-launches-public-consultation-high-risk-ai-systems (Stand 6.6.2025).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Pflichten für Betreiber von Hochrisiko-KI-Systemen&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Betreiberpflichten nach Art 26 AI Act&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis &amp;lt;mark&amp;gt;([https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#KI-Kompetenz/AI_literacy_(Art_4_AI_Act) &amp;quot;KI-Kompetenz&amp;quot;] nach Art 4&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 40. &amp;lt;/ref&amp;gt;)&amp;lt;/mark&amp;gt; verfügen und ihnen die erforderliche Unterstützung zukommen lassen. &lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von automatisiert erzeugten &#039;&#039;&#039;Protokollen&#039;&#039;&#039; &amp;lt;mark&amp;gt;für einen Zeitraum von zumindest 6 Monaten (wobei hier entgegenstehende datenschutzrechtliche Regelungen vorgehen würden&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 42.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;)&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, vor Verwendung oder Inbetriebnahme des Hochrisiko-KI-Systems am Arbeitsplatz. &amp;lt;mark&amp;gt;Dies umfasst sowohl den Einsatz von &amp;quot;eingebetteten&amp;quot; als auch &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Weiters sind die Mitwirkungspflichten des Betriebsrats zu berücksichtigen (vgl §§ 96 f ArbVG). Nicht umfasst sind wahrscheinlich Informationspflichten gegenüber Bewerbern, da diese tendenziell nicht unter den von dieser Bestimmung geforderten &amp;quot;Arbeitnehmer-Begriff&amp;quot; fallen&amp;lt;/mark&amp;gt;.&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet. &amp;lt;mark&amp;gt;Diese Bestimmung gilt lediglich für den Einsatz von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen nach Art 6 Abs 2 iVm Anhang III.Die danach mitzuteilende Information sollte die Zweckbestimmung und die Art der getroffenen Entscheidung beinhalten (vgl ErwGr 93) sowie - nach einer hier vertretenen Auffassung - eine vorab Information über das Recht auf Erklärung nach Art 86 AI Act, welches von KI-Entscheidungen Betroffenen das Recht zugesteht, unter gewissen Voraussetzungen vom Betreiber eine klare und aussagekräftige Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess sowie zu den wichtigsten Elementen der getroffenen Entscheidung zu erhalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe die entsprechende Argumentationslinie im Detail: &#039;&#039;Research Institute&#039;&#039;, Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025) 100 ff, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.  &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 27 Abs 4 macht überdies die Verzahnung der Grundrechte-Folgenabschätzung (GRFA) mit anderen Folgenabschätzungen deutlich und schreibt bspw vor, dass bei Vorliegen einer Datenschutz-Folgenabschätzung nach Art 35 DSGVO die GRFA diese ergänzen bzw in diese integriert werden solle.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Piltz/Zwerschke&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 27 Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme Rz 32.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Sowohl die Verpflichtungen nach Art 26 als auch die Durchführung einer GRFA nach Art 27 treffen den Betreiber unabhängig davon, ob jemand (bspw Betroffene) deren Einhaltung einfordern. Im Unterschied dazu enthält der AI Act in den Artt 85 ff sog &amp;quot;Betroffenenrechte&amp;quot;, die aktiv von betroffenen Personen geltend zu machen sind. Dazu zählt insbesondere das [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Recht auf Erklärung nach Art 86], welches das einzige Betroffenenrecht darstellt, das direkt gegen den Betreiber durchsetzbar ist.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführer oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn die genannten Personen ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen;&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt;&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das &#039;&#039;nicht&#039;&#039; als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird.&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter (Erstanbieter) nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat jedoch mit dem neuen Anbieter zusammenzuarbeiten, insb Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI Act muss beachtet werden, dass die Rollenverteilung eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters erfolgt, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden &amp;lt;mark&amp;gt;sowie den Anforderungen an die Barrierefreiheit genügen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots, &amp;lt;mark&amp;gt;Sprachassistenten, Social Bots)&amp;lt;/mark&amp;gt;, sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Pflicht kann entfallen, wenn die Interaktion mit dem KI-System aus Sicht einer angemessen informierten, aufmerksamen und verständigen Person offensichtlich ist oder beim Einsatz von KI-Systemen, die für die Strafverfolgung zugelassen sind.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 43.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
*&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 40.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Chatbots&#039;&#039;&#039; können durch einen textlichen Hinweis zu Beginn des Gesprächs oder ein dauerhaft angezeigtes grafisches Symbol vorgestellt werden.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Bei &#039;&#039;&#039;Voicebots&#039;&#039;&#039; kommt eine der Interaktion vorausgehende Ansage, welche auf den KI-Einsatz hinweist, in Betracht.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social Bots&#039;&#039;&#039; können eine Information vor und mit jeder Interaktion des Bots in sozialen Netzwerken erfordern, da das System stets mit einem neuen Personenkreis in Interaktion tritt (zB AI-Influencer).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Das KI-Büro hat am 5. November 2025 Arbeiten an einem Verhaltenskodex in Bezug auf die Kennzeichnung von KI-generierten Inhalten aufgenommen. Die entsprechenden Leitlinien werden in einem siebenmonatigen Prozess, der sich insbesondere durch die Einbindung von relevanten Stakeholdern und öffentliche Konsultationen auszeichnen soll, erarbeitet werden. Näheres unter: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Mögliche Methoden wären bspw Wasserzeichen, Metadatenidentifizierungen, Kryptografische Methoden (zB &amp;quot;Hashing&amp;quot;), Protokollierungsmethoden oder Fingerabdrücke.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 133 Satz 4 sowie mwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 84 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Denkbar ist bspw eine Umsetzung in Form eines sichtbaren Wasserzeichens, eines textlichen Hinweises, durch Hinzufügen von sog C2PA-Content Credentials&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Die C2PA („Coalition forContent Provenanceand Authenticity“) ist ein branchenübergreifendes Non-profit-Projekt, das die Entwicklung gemeinsamer technischer Standards zur Ermittlung der Herkunft von digitalen Inhalten zum Ziel hat. Siehe dazu https://c2pa.org/. So hat sich bspw LinkedIn bei der Erkennung KI-generierter Inhalte diesen Standards unterworfen: https://www.linkedin.com/help/linkedin/answer/a6282984. MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 150.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;oder bei Audioinhalten durch eine Ansage zu Beginn des Audioinhalts.&amp;lt;ref&amp;gt;&#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 148 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Verpflichtung entfällt, wenn die betreffenden Inhalte vor ihrer Veröffentlichung einer menschlichen oder redaktionellen Kontrolle unterzogen wurden und eine Person die redaktionelle Verantwortung dafür trägt. Da die Anforderungen an die menschliche bzw redaktionelle Kontrolle nicht konkretisiert werden, unterwerfen sich bspw im journalistischen Bereich zahlreiche Medien freiwilligen Leitlinien (so etwa die [https://www.blm.de/files/pdf2/ki-leitlinien.pdf Leitlinien des Medienrats der Bayerischen Landeszentrale für neue Medien (BLM) zum Einsatz von Künstlicher Intelligenz im Journalismus]).&amp;lt;ref&amp;gt;MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 163 f.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als &amp;quot;KI-Systeme mit minimalem Risiko&amp;quot; bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf den sprunghaften Durchbruch generativer KI-Modelle, die für viele verschiedene Zwecke eingesetzt werden können, in den Jahren 2022 und 2023 wurden unter Durchbrechung des bisherigen zweck- und risikoorientierten Regelungsansatzes im Entwurfsstadium des AI Act nachträglich Regeln für solche Modelle eingefügt. Ein GPAI-Modell (in früheren Entwurfsfassungen foundation model/Basismodell) ist dabei in Art 3 Z 63 AI Act definiert als ein KI-Modell, das&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;das eine erhebliche allgemeine Verwendbarkeit aufweist,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;In den von der EU-Kommission im Juli 2025 veröffentlichten Leitlinien zu GPAI-Modellen werden eine kumulierte Menge der für das Training verwendeten Berechnungen von mehr als 10&amp;lt;sup&amp;gt;23&amp;lt;/sup&amp;gt; FLOPs und die Fähigkeit, geschriebene oder gesprochene Sprache (aber auch Bilder oder Videos aus Text) zu generieren, als Anhaltspunkte für das Vorliegen eines GPAI-Modells angegeben, es sei denn, das Modell erfüllt die oben angegebenen Kriterien der Allgemeinheit nicht (zB weil es spezifisch nur für die Transkription von Sprache in Text trainiert wurde).&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 13ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Somit ist davon auszugehen, dass die üblichen [https://de.wikipedia.org/wiki/Large_Language_Model LLM]s, wie die GPT-Serie von OpenAI, die Gemini-Serie von Google oder die Claude-Serie von Anthropic als GPAI-Modelle im Sinne dieser Definition einzustufen sind.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Abgrenzung der Rollen entlang der Wertschöpfungskette&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&amp;lt;mark&amp;gt;In Bezug auf GPAI-Modelle können drei Rollen unterschieden werden:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Anbieter (Provider):&#039;&#039;&#039; Entwickeln, trainieren und veröffentlichen Modelle. Sie tragen primär Verantwortung für Modellqualität, Sicherheit und Dokumentation.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Anbieter (Downstream Provider):&#039;&#039;&#039; Feintunen, modifizieren oder integrieren Modelle in KI-Systeme.&amp;lt;/mark&amp;gt; &lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Betreiber (Deployer):&#039;&#039;&#039; Nutzen ein KI-System im praktischen Einsatz.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Ein wesentlicher Zweck der Regulierung von GPAI-Modellen ist, dass nachgelagerte Anbieter, ein GPAI-Modell in ihr KI-System integrieren, Informationen über dieses Modell erhalten und darauf basierend ihren eigenen Verpflichtungen (nach den allgemeinen Regeln des AI Act für KI-Systeme) nachkommen zu können.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme der Hauptgegenstand der Regulierung durch den AI Act sind (risikobasierten Ansatz), unterliegen auf Ebene der Modelle nur GPAI-Modelle einer direkten Regulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese Regulierung unterscheidet zwischen GPAI-Modellen ohne und GPAI-Modellen mit systemischem Risiko. Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act), &lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über &amp;quot;Fähigkeiten mit hohem Wirkungsgrad&amp;quot; verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; beträgt. Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act). Oder&lt;br /&gt;
* wenn die Kommission in einer Entscheidung festgestellt hat, dass es über solche Fähigkeiten oder eine solche Wirkung verfügt (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden. &lt;br /&gt;
* Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
* eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
* eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
* mögliche systemische Risiken auf Unionsebene bewerten und mindern,&lt;br /&gt;
* einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
* ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten.&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung des AI Act beitragen sollen.&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von GPAI-Modellen sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 56 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 10. Juli 2025 wurde der Praxisleitfaden &amp;quot;General-Purpose AI Code of Practice&amp;quot; veröffentlicht.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Praxisleitfaden für KI-Modelle mit allgemeinem Verwendungszweck (General-Purpose AI Code of Practice), https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;hat die EU-Kommissionen eine allgemeine [https://digital-strategy.ec.europa.eu/de/faqs/questions-and-answers-code-practice-general-purpose-ai &amp;quot;FAQ-Sektion&amp;quot;] angelegt, um zusätzliche Informationen bereitzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt. &lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der AILD und PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Stand November 2025 wurde in Österreich noch keine Behörde als zuständige Marktüberwachungsbehörde eingerichtet oder benannt. Bereits mit 2. November 2024 sind jedoch einige Behörden und öffentliche Stellen im Grundrechtsbereich gemäß Art 77 Abs 2 mit Aufsichts- und Durchsetzungsbefugnissen für Grundrechte insb im Zusammenhang mit Hochrisiko-KI ausgestattet worden, darunter die Volksanwaltschaft, die Datenschutzbehörde, die Arbeiterkammer, die Gleichbehandlungskommission, die Behindertenanwaltschaft, die KommAustria uvm.&amp;lt;ref&amp;gt;Mehr dazu unter: https://www.digitalaustria.gv.at/themen/kuenstliche-intelligenz/behoerden-art77-ai-act.html.&amp;lt;/ref&amp;gt; Dabei treffen auch die (künftig) zuständige Marktüberwachungsbehörde umfassende Kooperationspflichten, wie etwa die Meldung schwerwiegender Grundrechtsvorfälle in diesem Kontext an die genannten Einrichtungen (vgl Art 73 Abs 7 und Art 79 Abs 2 AI Act).&amp;lt;ref&amp;gt;Vgl &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 103, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Dazu hat die Kommission entsprechende Leitlinien zu veröffentlichen, die sich gerade in Ausarbeitung befinden.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung im Einzelfall betroffen sind,&lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (&amp;lt;mark&amp;gt;Recht auf Erläuterung der Entscheidungsfindung im Einzelfall gemäß Art 86 Abs 1 AI Act oder auch gemeinhin als &#039;&#039;&#039;&amp;quot;Recht auf Erklärung&amp;quot;&#039;&#039;&#039; bezeichnet&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157; &#039;&#039;Poindl/Müller,&#039;&#039; Das Recht auf Erklärung im AI Act. Betroffenenrecht mit Potenzial oder Papiertiger?, VbR 2025, 40. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei ist es unerheblich, ob das KI-System die Entscheidung gänzlich autonom getroffen hat oder unterstützend beteiligt war, es darf lediglich keine untergeordnete Rolle im Entscheidungsprozess gespielt haben.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Steht das Recht auf Erklärung zu, hat die betroffene Person einerseits das Recht, eine Erklärung über die Rolle des KI-Systems im Entscheidungsprozess zu verlangen, worunter einerseits Informationen über die zentralen Aufgaben des Systems im Entscheidungsprozess fallen (zB Zielgruppenselektion, Datenanalyse, Vorgabe der Entscheidung usw.) und andererseits auch der Grad dessen Beteiligung (gering, mittel, hoch), was umgekehrt auch den Grad menschlicher Beteiligung an der Entscheidungsfindung erfordert. Weiters sind die wichtigsten Elemente der Entscheidung zu beauskunften, beispielsweise Eingabedaten, wesentliche Entscheidungsgründe, kontrafaktische Erklärungen (inwiefern hätten andere Parameter zu einer anderen Entscheidungen geführt), die Auswirkungen der Entscheidung, die Gewichtung der einzelnen Kriterien und die Verarbeitungslogik (Informationen über die grobe Funktionsweise des KI-Systems, keine komplette Offenlegung des algorithmischen Codes). Weiters muss die Erklärung präzise, korrekt, verständlich, nicht zu technisch (keine komplexen mathematischen Formeln), aber dennoch vollständig sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letzter Referenzpunkt ist stets, ob die betroffene Person auf Basis der erlangten Informationen weitere Rechte geltend machen kann, da das Recht auf Erklärung auch oft als &amp;quot;Türöffner&amp;quot; für die Geltendmachung weiterer Rechte dient (so wird bspw eine Klage wegen Diskriminierung in einem Entscheidungsprozess erst erhoben werden können, wenn die betroffene Person genügend Informationen hat, um die Diskriminierung darzulegen, bspw die Gewichtung von bestimmten persönlichen Merkmalen, die ausschlaggebend für die Entscheidung war).&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Es handelt sich somit um ein nachgelagertes bzw &#039;&#039;ex post&#039;&#039; Recht, das nicht nur globale, abstrakte Systemerklärungen erfordert, sondern auch lokale, einzelfallbezogene Auskünfte umfasst, damit die betroffene Person die Informationen wirksam nutzbar machen kann .&amp;lt;/mark&amp;gt; Das Recht auf Erklärung steht Betroffenen gegenüber Betreibern und nicht gegenüber Anbietern zu, wobei letztere wiederum Betreibern entsprechende Betriebsanleitungen bereitzustellen haben (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung gilt nicht, sofern Ausnahmen nach Unionsrecht oder nationalem Recht bestehen (Art 86 Abs 2). Zu denken wäre hier etwa an Beschränkungen der Informationspflicht aufgrund geschützter Betriebs- oder Geschäftsgeheimnisse, wobei diese nicht zu einer pauschalen Auskunftsverweigerung führen dürfen.&amp;lt;/mark&amp;gt; Art 86 Abs 1 gilt überdies nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung Subsidiarität] ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung ist immer dann relevant, wenn Unternehmen, Behörden etc. KI in Entscheidungsfindungsprozessen einsetzen, die Auswirkungen auf bestimmte Personen(-gruppen) haben. Zu denken ist etwa an KI-basierte Entscheidungen über die Vergabe von Krediten, über die Berücksichtigung einer Bewerbung, über die Höhe einer Versicherungsprämie oder personalisierte Werbeschaltungen auf Basis von Emotionserkennung.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zum Umgang mit dem Recht auf Erklärung in der Praxis hat das &#039;&#039;Research Institute&#039;&#039; im Auftrag des Bundesministeriums für Arbeit, Soziales, Gesundheit, Pflege und Konsumentenschutz Leitlinien entwickelt:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:f1685e43-21b8-48f3-9fe5-2c61898960ae/Final_Aufkl%C3%A4rung%204.0_Unternehmensleitfaden_April2025.pdf Leitfaden für Unternehmen] im Umgang mit Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:40ba630c-39af-4b8d-8768-a69192427b09/Final_Aufkl%C3%A4rung%204.0_Konsumentinnenleitfaden_April2025.pdf Leitfaden für Konsument:innen und ihre Interessenvertretungen] zur Durchsetzung ihrer Rechte&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf Theoretischer Grundlagenbericht] zur wissenschaftlichen Fundierung der ausgesprochenen Empfehlungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Grundlegende Überschneidungen zwischen dem AI Act und der Datenschutz-Grundverordnung (DSGVO)&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Da KI-Systeme bzw -Modelle häufig personenbezogene Daten verarbeiten - bspw im Rahmen des Trainings eines KI-Modells oder zur Entscheidungsunterstützung in Bezug auf konkrete Personen -, stellt sich unweigerlich die Frage nach dem Zusammenwirken des AI Act mit der DSGVO.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Der Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA) des LfDI Baden-Württemberg enthält eine Auswahl von Orientierungshilfen verschiedener Aufsichtsbehörden und Gremien zu den Schnittstellen von DSGVO und KI: https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0. MwN &#039;&#039;Holtz/Ledendal,&#039;&#039; AI Data Governance - Overlaps Between the AI Act and the GDPR (iE, 2026): https://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1996843&amp;amp;dswid=-4177 sowie der [https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/DE-Bridge-Blueprint-v.0.9.pdf &amp;quot;Bridge Blueprint&amp;quot;-Entwurf] zur einheitlichen Anwendung von Datenschutz- und KI-Regulierung des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI).&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letztere knüpft ihren Anwendungsbereich nämlich an die Verarbeitung personenbezogener Daten iSd Art 4 Abs 1 DSGVO, worunter alle Informationen zu verstehen sind, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Die DSGVO ist seit 2018 in Anwendung und verfolgt den Grundsatz, dass jegliche Verarbeitung personenbezogener Daten verboten ist, es sei denn, es liegt ein Erlaubnistatbestand nach Art 6 Abs 1 DSGVO vor. Für die Verarbeitung sog &amp;quot;sensibler Daten&amp;quot; nach Art 9 DSGVO (zB Gesundheitsdaten, die ethnische Herkunft, die religiöse Weltanschauung etc.) legt sie noch strengere Maßstäbe an. Damit verfolgt die DSGVO einen horizontalen sowie prinzipienbasierten Ansatz, wonach bei der Verarbeitung personenbezogener Daten bestimmte Anforderungen und Grundsätze einzuhalten sind, ungeachtet der verwendeten Technologie, des Sektors oder des Einsatzgebiets.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 32, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus orientiert sich die Verordnung daran, inwieweit eine bestimmte Datenverarbeitung ein Risiko für die Rechte und Freiheiten natürlicher Personen darstellt (&amp;quot;risikobasierter Ansatz&amp;quot;), wonach sich letztendlich die Strenge der von ihr vorgeschriebenen Verpflichtungen bemisst.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Der AI Act erkennt das Primat der DSGVO in Art 2 Abs 7 an und statuiert, dass er deren Anwendungsbereich unberührt lässt. Somit gehen im Falle der Verarbeitung personenbezogener Daten durch eine KI-Anwendung die Regelungen der DSGVO grundsätzlich vor, während der AI Act dem ergänzend eine produktsicherheitsrechtliche Komponente beifügt, die während der Entwicklung und des Einsatzes von KI zu beachten ist.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 33, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Überschneidungen beider Rechtsakte ergeben sich bspw, sobald ein KI-Modell mit personenbezogenen Daten &#039;&#039;&#039;trainiert&#039;&#039;&#039; werden soll. In diesem Fall braucht es eine Rechtsgrundlage nach Art 6 Abs 1 DSGVO (und ggf Art 9 DSGVO), wobei hier am ehesten die berechtigten Interessen des Verantwortlichen nach lit f leg cit infrage kommen. So hat sich bspw der Facebook-Mutterkonzern Meta auf berechtigte Interessen berufen, um sein Sprachmodell &amp;quot;LLaMA&amp;quot; hinter seiner &amp;quot;Meta AI&amp;quot; mit Nutzerdaten zu trainieren. Dagegen erhob die Verbraucherschutzzentrale NRW Antrag auf Erlass einer einstweiligen Verfügung, letztendlich entschied jedoch das OLG Köln in seinem Beschluss vom 23.05.2025 (15 UKl 2/25), dass sich Meta für das KI-Training mit Nutzerdaten auf berechtigte Interessen stützen könne.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://www.verbraucherzentrale.nrw/urteilsdatenbank/digitale-welt/olg-koeln-weist-eilantrag-der-verbraucherzentrale-nrw-gegen-meta-wegen-kitraining-zurueck-108065.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Umgekehrt ist laut Art 35 DSGVO immer dann eine Datenschutz-Folgenabschätzung durchzuführen, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat, insbesondere bei Verwendung neuer Technologien. Darunter fallen gemäß §2 Abs 2 Z 4 DSFA-V&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Verordnung der Datenschutzbehörde über Verarbeitungsvorgänge, für die eine Datenschutz-Folgenabschätzung durchzuführen ist (DSFA-V), BGBl. II Nr. 278/2018.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;insbesondere Datenverarbeitung unter Einsatz von künstlicher Intelligenz, welcher jedenfalls die Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung nach sich zieht. Somit löst auch der Einsatz von KI unter gewissen Voraussetzungen datenschutzrechtliche Pflichten aus.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: Digital Services Act (DSA) vs AI Act ===&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der DSA legt einheitliche Regeln für Vermittlungsdienste mit dem Ziel fest, ein vertrauenswürdiges, (rechts-)sicheres und vorhersehbares Online-Umfeld für Verbraucher und Unternehmen durch eine harmonisierte Plattformregulierung zu gewährleisten. Ebenso zielt das Regelwerk auf den Schutz sowie die Gewährleistung einer effektiven Grundrechtsausübung und normiert umfassende Verpflichtungen für Anbieter von Online-Diensten in Form eines abgestuften Regelungsansatzes, der die unterschiedlichen Compliance-Pflichten an die Art und Größe der jeweiligen Online-Dienste knüpft. Dabei kennt der DSA folgende Anbieterkategorien: Anbieter von allgemeinen Vermittlungsdiensten, Hostingdiensten, Online- sowie Transaktionsplattformen und sehr großen Online-Plattformen (VLOPs) und -Suchmaschinen (VLOSEs). Überschneidungen mit dem AI Act können sich auf zweierlei Weise ergeben: Einerseits können KI-Anwendungen zur Generierung oder Manipulation von Inhalten verwendet werden, die dann über Vermittlungsdienste geteilt werden. Andererseits können KI-Systeme das Kernangebot des Diensteanbieters ausmachen, in der Inhaltsmoderation eingesetzt werden oder Produkt- bzw Service-Empfehlungen auf Basis von Nutzerverhalten (&amp;quot;Empfehlungsalgorithmen&amp;quot;) schalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 48, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Allgemeine Synergien sind dem [[Digital Services Act (DSA)|Eintrag über den DSA]] zu entnehmen.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
* Weiters kann es bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act in Bezug auf die notwendige Risikoanalyse kommen. &amp;lt;mark&amp;gt;So fordern die Artikel 34 und 35 DSA die Analyse jener potenzieller systemischer Risiken, die sich durch das Design, die Funktion oder die Nutzung ihrer Services ergeben, insbesondere im Zusammenhang mit algorithmischen Systemen oder Systemen zur Inhaltsmoderation. Demgegenüber legt der AI Act in Art 17 die Verpflichtung für Anbieter von Hochrisiko-KI-Systemen zur Etablierung eines Risikomanagementsystems gemäß Art 9 AI Act fest und sieht spezielle Anforderungen für Anbieter von GPAI-Modellen mit systemischem Risiko vor (Art 55 Abs 1 lit b AI Act).&amp;lt;/mark&amp;gt; Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Im Fall von Anbietern von Hochrisiko-KI-Systemen sieht der AI Act sogar explizit die Möglichkeit vor, Risikomanagementprozesse nach anderen unionsrechtlichen Bestimmungen mit jenen nach dem AI Act zu kombinieren (vgl Art 9 Abs 10 AI Act).&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 49, &amp;lt;nowiki&amp;gt;https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Art 86 AI Act normierte Recht auf Erläuterung] besteht potentiell eine Subsidiarität gegenüber anderen Auskunftsansprüchen, insb der Auskunftspflicht nach Art 15 Abs 1 lit h DSGVO iVm Art 22 DSGVO. &amp;lt;mark&amp;gt;Demnach steht Personen, die von einer automatisierten Entscheidungsfindung im Einzelfall einschließlich Profiling betroffen sind, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie ähnlich erheblich beeinträchtigt, das Recht zu, neben allgemeinen Informationen über die Verarbeitung ihrer personenbezogenen Daten aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und Auswirkungen einer derartigen Verarbeitung zu verlangen. Inhaltlich&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;richtet sich der Auskunftsanspruch nach Art 15 Abs 1 lit h DSGVO gemäß rezenter EuGH-Judikatur insb auf die Erläuterung des Verfahrens und der Grundsätze, die bei der automatisierten Verarbeitung der personenbezogenen Daten der betroffenen Person zur Anwendung kamen und zu dem bestimmten Ergebnis geführt haben.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117, Rz 58. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Frage nach einer potenziellen Subsidiarität von Art 86 AI Act gegenüber den entsprechenden datenschutzrechtlichen Vorschriften hängt von unterschiedlichen Fallszenarien ab, in denen die jeweils verwendeten Technologien und verarbeiteten Datenkategorien zu unterschiedlichen Ergebnissen führen können:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 15 Abs 1 lit h iVm Art 22 DSGVO&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsfolge&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Hochrisiko-KI-Einsatz in Entscheidungsfindungsprozessen, in denen entweder keine personenbezogenen Daten gemäß Art 4 Z 1 DSGVO verarbeitet werden (zB Verarbeitung lediglich aggregierter Daten) oder keine vollautomatisierte Entscheidung iSd Art 22 DSGVO getroffen wird (etwa weil ein Mensch maßgeblich an der Entscheidungsfindung beteiligt ist)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Das Recht auf Erklärung steht vollumfänglich wie in Art 86 Abs 1 dargelegt zu (bei Vorliegen der übrigen Voraussetzungen). Der betroffenen Person sind somit klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess und zu den wichtigsten Elementen der getroffenen Entscheidung zu übermitteln, wobei die Erklärung einzelfallbezogen und auf das konkrete Ergebnis gerichtet sein muss. Der Anwendungsbereich von Art 15 (Abs 1 lit h iVm Art 22) DSGVO ist hingegen nicht eröffnet. Das Recht, die Entscheidung anzufechten, steht - zumindest gemäß AI Act - nicht zu.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Es findet eine vollautomatisierte Entscheidungsfindung auf Basis der Verarbeitung personenbezogener Daten statt, allerdings ohne Beteiligung eines Hochrisiko-KI-Systems iSd Art 6 Abs 2 iVm Anhang III AI Act (bspw wird die Entscheidung durch einen herkömmlichen Algorithmus getroffen, der Anforderungen an ein KI-System nach Art 3 Z 1 AI Act nicht erfüllt oder das KI-System fällt nicht in den Hochrisiko-KI-Bereich)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Auskunftsanspruch gemäß Art 15 (Abs 1 lit h iVm Art 22) DSGVO steht bei Vorliegen der übrigen Voraussetzungen zu, während das Recht auf Erklärung nach Art 86 AI Act keine Anwendung findet. Es sind der betroffenen Person somit Informationen über die involvierte Logik, Tragweite und Auswirkungen der Entscheidung zu übermitteln, wobei Informationen über die Rolle des eingesetzten Systems nicht darunter fallen. Im Unterschied zu Art 86 AI Act ist in Bezug auf Art 15 Abs 1 lit h DSGVO jedoch noch unklar, ob auch eine Verpflichtung zu einer einzelfallbezogenen Begründung der konkret erzielten Ergebnisse besteht, die über eine abstrakte/allgemeine Erklärung hinausgeht.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl etwa das EuGH-Urteil in der RS Dun &amp;amp; Bradstreet, welches stärker auf das lokale Element, dh die Einzelentscheidung, abzustellen scheint (EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117). MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 71, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Art 22 Abs 3 DSGVO enthält jedoch im Gegensatz zum AI Act das Recht, die Entscheidung anzufechten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Verarbeitung personenbezogener Daten im Rahmen der Entscheidungsfindung, Einsatz eines Hochrisiko-KI-Systems, vollautomatisierte Entscheidungsfindung&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Anspruch nach Art 86 AI Act tritt ergänzend zu jenem nach der DSGVO hinzu und richtet sich auf jene Informationen, die nach Art 15 DSGVO nicht zu beauskunften sind (bspw die Rolle des KI-Systems im Entscheidungsprozess sowie jedenfalls einzelfallbezogene, lokale Erklärungen). Es handelt sich somit um eine sog &amp;quot;Lückenfüller-Position&amp;quot; von Art 86 AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Ansicht folgend und mwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 96 ff, &amp;lt;nowiki&amp;gt;https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;mark&amp;gt;In der Regel werden Betroffene in der Praxis wohl beide Ansprüche gleichzeitig geltend machen. Dies ist allerdings nur möglich, sofern beide Ansprüche auch gegenüber der selben Person bzw Einrichtung geltend zu machen sind. Denn während das Recht auf Erklärung nach Art 86 AI Act gegen den Betreiber des KI-Systems zusteht, ist der Auskunftsanspruch gemäß Art 15 Abs 1 lit h DSGVO gegen jene Person oder Stelle zu richten, welche die Entscheidung getroffen hat (welche zwar meist aber nicht zwangsläufig mit der Person des datenschutzrechtlich Verantwortlichen iSd Art 4 Z 7 DSGVO ident sein wird&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Argumentation folgend: &#039;&#039;Ziegenhorn,&#039;&#039; Wer ist Adressat des Art. 22 DSGVO? Zur Abgrenzung des Entscheiders vom Verantwortlichen, CR 2024, 586.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;). Die unterschiedlichen Rollen nach AI Act und DSGVO können somit zusammenfallen, müssen dies allerdings nicht, wodurch sich unterschiedliche Verpflichtungen für die beteiligten Akteure ergeben können.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== Produkthaftungsrichtlinie neu und Vorschlag für eine AI Liability Directive [zurückgezogen] ===&lt;br /&gt;
&lt;br /&gt;
* Die Produkthaftungsrichtlinie neu (PHRL neu) und insbesondere &amp;lt;mark&amp;gt;der (zurückgezogene)&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Commission work programme 2025, (11.2.2025) COM(2025) 45 final, 26.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Vorschlag für eine&amp;lt;/mark&amp;gt; AI Liability Directive (AILD) nehmen direkt auf den AI Act Bezug und verweisen bei der Begriffsverwendung häufig auf diesen. Die AILD kann somit nicht ohne den Kontext des AI Act verstanden werden. So sollten die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD bilden ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]). &lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act überträgt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Begleit- bzw Durchführungsgesetz, das die Sanktionen konkretisiert.  &amp;lt;mark&amp;gt;Auch die notifizierende(n) Behörde(n) und die Marktüberwachungsbehörde(n) (Art 70 AI Act) wurden in Österreich noch nicht benannt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 5: Transkriptionstool im Rahmen der Rechtspflege&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|&amp;lt;mark&amp;gt;Im Rahmen des Verfassens von Urteilen oder Protokollen wird das gesprochene Wort (Diktat des Entscheidungsorgans) digital aufgezeichnet und anschließend transkribiert. Das System ist in der Lage, mithilfe KI-gestützter Spracherkennung die jeweils Sprechenden (Speaker Diarisation) sowie juristische Begriffe und Redewendungen zu erkennen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Transkriptionssoftware liegt ein Sprachmodell (LLM) zugrunde, das auf maschinellem Lernen basiert. Dieses wird durch ein User-Interface praktisch nutzbar gemacht und stellt somit ein KI-System iSd AI Act dar.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&amp;lt;mark&amp;gt;Der Einsatz von KI in der Rechtspflege zu gewissen Zwecken kann in den Hochrisiko-KI-Bereich gemäß Art 6 Abs 2 iVm Anhang III Nr 8 lit a AI Act fallen. Solche Systeme sind jedoch nicht als hochriskant einzustufen, sofern sie für rein begleitende administrative Tätigkeiten bestimmt sind, worunter jedenfalls Spracherkennungsprogramme für das Diktieren von Entscheidungen fallen können (ErwGr 61). In einem nächsten Schritt ist die Ausnahmeregelung des Art 6 Abs 3 AI Act zu prüfen, wonach das System höchstwahrscheinlich gemäß lit a leg cit aus dem Hochrisiko-KI-Bereich ausgenommen ist, da es rein für Protokollierungszwecke eingesetzt wird und damit nur eine eng gefasste Verfahrensaufgabe übernimmt. Ebenso ist denkbar, gemäß lit d leg cit aus dem Hochrisiko-KI-Bereich ausgenommen zu sein, sofern das System lediglich eine vorbereitende Aufgabe für die Urteilserstellung übernimmt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Bejaht man hingegen das Vorliegen von Hochrisiko-KI, so treffen deren Anbieter die Pflichten der Art 8 ff AI Act und den Betreiber insbesondere die Pflichten nach Art 26 und 27 AI Act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Sofern es sich um ein KI-Modell mit allgemeinem Verwendungszweck (mit systemischem Risiko) handelt, treffen den Anbieter diesbezüglich Verpflichtungen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Unabhängig von der Risikoeinstufung des Modells bzw Systems sind darüber hinaus die Transparenzpflichten nach Art 50 AI Act zu beachten sowie ein ausreichendes Maß an KI-Kompetenz unter den Beschäftigten, die mit dem Transkriptionstool arbeiten, herzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 6: KI-System zur Filterung und Priorisierung von Bewerbungen&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Sachverhalt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen möchte eine neue Stelle besetzen und erhält unzählige Bewerbungen. Daher entschließt es sich, ein KI-basiertes System einzusetzen, das Bewerbungen filtert und mit einem Einstufungswert versieht, wodurch die Bewerbungen priorisiert werden. Die zuständigen HR-Mitarbeiter*innen weichen nicht mehr von dem Wert ab und vergeben die Stelle schließlich an jene Person, die den höchsten Einstufungswert erhalten hat.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!&amp;lt;mark&amp;gt;Einordnung AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Sofern es sich bei der Anwendung um ein KI-System nach Art 3 Z 1 AI Act handelt, ist der Anwendungsbereich des AI Act grundsätzlich eröffnet. Das Unternehmen ist jedenfalls als dessen Betreiber zu qualifizieren, da es das System in eigener Verantwortung zu beruflichen Zwecken einsetzt. Sofern es das KI-System auch selbst entwickelt / entwickeln lässt und es unter eigener Marke bzw eigenem Namen in Betrieb nimmt, ist es sogar Anbieter.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]].&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Darüber hinaus stellt das System ein &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System nach Art 6 Abs 2 iVm Anhang III Punkt 4a AI Act dar, da es bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet wird, um Bewerbungen zu filtern und Bewerber zu bewerten. Eine Ausnahme nach Art 6 Abs 3 AI Act vom Hochrisiko-KI-Bereich liegt nicht vor, da das KI-System das Ergebnis der Entscheidungsfindung wesentlich beeinflusst (von dem KI-generierten Eignungswert wird nicht mehr abgewichen). Je nach Rolle treffen das Unternehmen nun weitereichende Verpflichtungen. In den meisten Fällen wird das Unternehmen wohl als Betreiber zu klassifizieren sein, weshalb es unter anderem die Betreiberpflichten nach Art 26 AI Act zu erfüllen und unter gewissen Voraussetzungen eine Grundrechte-Folgenabschätzung nach Art 27 AI Act durchzuführen hat. Art 26 Abs 7 sieht grundsätzlich auch die spezielle Betreiberpflicht vor, vor Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz die Arbeitnehmervertreter und betroffenen Arbeitnehmer über den KI-Einsatz zu informieren. Inwieweit diese Verpflichtung auch gegenüber Bewerbern gilt, die streng genommen (noch) keine Arbeitnehmer sind, ist fraglich und wird wohl zu verneinen sind. Diese vermeintliche Rechtsschutzlücke wird jedoch ohnehin wieder durch die Verpflichtung gemäß Art 26 Abs 11 AI Act ausgeglichen, von Hochrisiko-KI-Entscheidungen betroffene Personen über diesen KI-Einsatz zu informieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= &amp;lt;mark&amp;gt;Digitaler Omnibus&amp;lt;/mark&amp;gt; =&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 19. November 2025 stellte die Europäische Kommission das sogenannte &#039;&#039;&#039;„Digital Omnibus Package“&#039;&#039;&#039; vor, ein Legislativpaket mit dem Ziel, den digitalen Rechtsrahmen der EU zu vereinfachen.&amp;lt;ref name=&amp;quot;:2&amp;quot;&amp;gt;Vgl https://ec.europa.eu/commission/presscorner/detail/de/ip_25_2718. &amp;lt;/ref&amp;gt; Ziel der Maßnahme ist, Verwaltungs- und Umsetzungskosten zu senken, Rechtsklarheit zu erhöhen und insbesondere kleine und mittlere Unternehmen (KMU) zu entlasten, da Unternehmen zunehmend Schwierigkeiten bei der Umsetzung und Koordination von Vorgaben wie etwa dem AI Act sehen. Das Paket umfasst Änderungen und Anpassungen unterschiedlicher Rechtsrahmen, so auch einige Bestimmungen des AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Inhaltliche Änderungen betreffen einerseits die Verpflichtung zur Sicherstellung von KI-Kompetenz (Art 4), welche nunmehr nicht Unternehmen bzw. Einrichtungen selbst treffen soll, sondern die Kommission und die Mitgliedstaaten sind dazu angehalten, Anbieter und Betreiber zur Sicherstellung eines angemessenen Maßes an KI-Kompetenz zu unterstützen. Ebenso stellt die Kommission eine Verzögerung der Anwendbarkeit der Hochrisiko-KI-Bestimmungen in Aussicht, welche mit 2. August 2026 bzw 2. August 2027 Anwendung erlangen sollten. Grund ist das Fehlen von entsprechenden Standards, die eigentlich bis August 2025 zu setzen waren und ohne die laut Kommission die Einhaltung der entsprechenden AI Act-Bestimmungen nicht möglich sei. Die Anwendbarkeit der Hochrisiko-KI-Bestimmungen soll sich um bis zu maximal 16 Monate verzögern, wobei die Vorschriften Geltung erlangen, sobald die Kommission die Verfügbarkeit der erforderlichen Standards und Unterstützungsinstrumente bestätigt.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:2&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus enthält der Vorschlag einen neuen Art 4a, der die Verarbeitung sensibler personenbezogener Daten zur Erkennung und Minderung von Bias unter gewissen Voraussetzungen ermöglicht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Kommissionsleitlinien und sonstige Materialen/Verhaltenskodizes&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zur Definition eines Systems der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 6. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118628&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 4. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118661&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Living Repository zur Förderung des Lernens und des Austausches über KI-Kompetenz vom 04. Februar 2025 (mit Update von April 2025): https://ec.europa.eu/newsroom/dae/redirection/document/112203&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Praxisleitfaden für KI-Modelle mit allgemeinem Verwendungszweck (General-Purpose AI Code of Practice) vom 10. Juli 2025: https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Transparenz: https://ec.europa.eu/newsroom/dae/redirection/document/118120&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Urheberrecht: https://ec.europa.eu/newsroom/dae/redirection/document/118115&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Sicherheit: https://ec.europa.eu/newsroom/dae/redirection/document/118119&amp;lt;/mark&amp;gt;  &lt;br /&gt;
*&amp;lt;mark&amp;gt;Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act vom 18. Juli 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118340&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;Leitlinien und Meldevorlagen zur Meldung schwerwiegender KI-Vorfälle gemäß Art 73 AI Act (&#039;&#039;Entwurf, noch in Ausarbeitung&#039;&#039;): https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; AI Act Service Desk. Frequently Asked Questions (FAQs): https://ai-act-service-desk.ec.europa.eu/en/faq.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act)&amp;lt;mark&amp;gt;&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024) &amp;lt;mark&amp;gt;(2. Auflage 2026, iE)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schefzig/Kilian,&#039;&#039; BeckOK KI-Recht&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Hochrangige Expertengruppe für Künstliche Intelligenz,&#039;&#039; Ethik-Leitlinien für eine vertrauenswürdige KI (2019), https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425&amp;lt;/mark&amp;gt;&lt;br /&gt;
* [https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0 Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA)]&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4306</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4306"/>
		<updated>2025-11-26T20:19:04Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Zentrale Inhalte */ Abgrenzung der Rollen in Bezug auf GPAI&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. Februar 2025 (schrittweise)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen von KI-Systemen &lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD, &amp;lt;mark&amp;gt;von der Kommission zurückgezogen&amp;lt;/mark&amp;gt;)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modelle (general purpose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB Verarbeitung zur Vermeidung von Verzerrungen, Art 10), regulatory sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (zB Anbieter- und Betreiberpflichten, Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz (eingeschränkt); reine Forschungszwecke &lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) gelten seit 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (zB Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|Gewährleistung von Transparenz und Verantwortlichkeit&lt;br /&gt;
|Pflichten für Betreiber (professionelle Nutzer*innen) und Anbieter&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (zB Chatbots, Deepfakes)&lt;br /&gt;
|Informationspflichten nach der DSGVO&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
&amp;lt;mark&amp;gt;Der AI Act ist die erste EU-weite, sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) und&amp;lt;/mark&amp;gt; folgt dabei primär einem produktsicherheitsrechtlichem Ansatz, dessen vorrangiges Regulierungsziel die Sicherheit von KI-Systemen und Modellen ist. &amp;lt;mark&amp;gt;Damit ist er Teil des sog [https://single-market-economy.ec.europa.eu/single-market/goods/new-legislative-framework_en?prefLang=de &amp;quot;New Legislative Framework&amp;quot;] (NLF), einem unionsrechtlichen Maßnahmenpaket zur Produktregulierung, das auf die Verbesserung der Marktüberwachung abzielt und sich durch einheitliche Kernelemente auszeichnet (zB Konformitätsbewertungsverfahren, Selbstregulierung, Standards und einheitliche Anforderungen). Im Rahmen des Gesetzgebungsprozesses wurde der Rechtsakt - insbesondere auf Bestreben des Europäischen Parlaments - um menschenrechtliche Aspekte und Betroffenenrechte erweitert, weshalb der AI Act mittlerweile deutlich über reines Produktsicherheitsrecht hinausgeht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modelle&#039;&#039;&#039; bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot;.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei handelt es sich um &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;ableitet&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot;&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe Art 3 Z 1 AI Act. Hervorhebungen nicht im Original. &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;abzuleiten&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Hingegen soll sich nach ErwGr 12 der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen [...]&amp;quot;, womit auf eine Abgrenzung von KI von herkömmlichen Softwarelösungen und Programmierungsansätzen abgezielt wird.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zusammenfassend möchte der EU-Gesetzgeber mit dieser Definition einerseits Rechtssicherheit schaffen, allerdings immer noch Raum für technologischen Fortschritt lassen, um den Anwendungsbereich des AI Act nicht von Vornherein vor potenziellen künftigen technologischen Entwicklungen zu verschließen.&amp;lt;/mark&amp;gt; Dennoch wurde die Definition als zu vage und unbestimmt empfunden. So wurden diverse Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Um den Begriff des KI-Systems also zu konkretisieren und Unsicherheiten zu beseitigen, sollte die Kommission gemäß Art 96 Abs 1 lit f AI Act Leitlinien vorlegen, und damit eine einheitliche Anwendung des Regelwerks fördern sowie Rechtsicherheit gewährleisten&amp;lt;/mark&amp;gt;.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle, &amp;lt;mark&amp;gt;einfache Datenverarbeitungssysteme, auf klassische Heuristik gestützte Systeme, einfache Vorhersagesysteme etc.&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Eine Positiv-Liste, welche Systeme jedenfalls unter den KI-Begriff fallen, enthalten die Leitlinien allerdings nicht. Sie orientieren sich vielmehr an den 7 Kernelementen der KI-Definition gemäß Art 3 Z 1 AI Act. Es wird überdies betont, dass nicht alle Elemente kontinuierlich in den beiden Hauptphasen des Lebenszyklus von KI (&amp;quot;building phase&amp;quot; / &amp;quot;pre-deployment&amp;quot; oder &amp;quot;use phase&amp;quot; / &amp;quot;post-deployment&amp;quot;) vorhanden sein müssen und, dass sich die Leitlinien kontinuierlich weiterentwickeln sollen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Folgende Konkretisierungen der KI-Definition und Beispiele sind den Leitlinien zu entnehmen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Elemente der KI-Definition&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Erläuterungen in den Leitlinien der EU-Kommission&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Maschinengestütztes System&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;KI benötigt Hardware- und Softwarekomponenten&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB eine Hardwareinfrastruktur wie processing units, Speicher, Input/Output-Schnittstellen und Software (Code, Programme etc.)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;autonomer Betrieb (in unterschiedlichem Grade)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erfordert einen gewissen Grad an Unabhängigkeit von menschlichem Eingreifen, wobei Systeme, die vollständig manuelle menschliche Interaktion erfordern, nicht darunter fallen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Umfasst sind Systeme, die zwar einen manuellen Input erfordern, aber von selbst einen Output generieren (zB Chatbots)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anpassungsfähigkeit nach Betriebsaufnahme (optional)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Selbstlernfähigkeiten (nicht zwingend erforderlich); darunter versteht man, ob sich das Verhalten des Systems während seiner Verwendung anpassen oder verändern kann (zB automatisches Lernen, wie Muster oder Beziehungen zwischen Daten erkannt werden können).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungsfähigkeit&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Inferenz, Schlüsseleigenschaft; dient der Abgrenzung von KI-Systemen von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen. Nicht umfasst sind hingegen Systeme, die nur von Menschen programmierten Regeln folgen und automatisiert Operationen ausführen. Die Ableitungsfähigkeit bedeutet daher die Erlernung allgemeiner Konzepte statt fester, vorprogrammierter Regeln.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Bsp: maschinelles Lernen, logik- und wissensgestützte Systeme (Schlussfolgerungen mittels Deduktion oder Induktion)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitung aus Eingaben für implizite oder explizite Ziele&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungen müssen nach entweder:&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;expliziten Zielen (klar definierte, direkt in den Code programmierte Ziele, Optimierung von Kostenfunktionen, Wahrscheinlichkeitsberechnung) oder&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;impliziten Zielen (Ableitung des Ziels aus dem Verhalten oder den dahinterstehenden Annahmen des Systems; bspw Trainingsdaten oder Interaktion des Systems mit Umwelt) erfolgen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erzeugung von Ausgaben&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ausgabe-Arten umfassen unter anderem&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Vorhersagen (Schätzungen unbekannter Werte basierend auf komplexen Datenmustern)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Inhalte (Texte, Bilder, Videos oder Musik)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Empfehlungen (Vorschläge für Maßnahmen, Produkte oder Dienstleistungen, die hochgradig personalisiert sind und Massendaten nutzen).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Entscheidungen (Vollautomatisierte Schlussfolgerungen oder Auswahlentscheidungen, die Prozesse automatisieren, die üblicherweise menschlichem Urteilsvermögen vorbehalten sind)&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;zB die generierten Inhalte von Chatbots, Produktvorschläge, Echtzeit-Vorhersagen, Auswahlentscheidungen&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Beeinflussung physischer oder virtueller Umgebungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Frage, ob das System einen aktiven Einfluss auf die Umgebungen hat, in denen es eingesetzt wird, sei es auf materielle physische Objekte oder auf digitale Räume&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB Roboterarm, Software-Ökosysteme, Datenströme&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}  &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI-Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit aus, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). &amp;lt;mark&amp;gt;Man kann hier den Vergleich zu einem KFZ ziehen, wobei das KI-Modell den Motor darstellt, der die eigentliche &amp;quot;Arbeit&amp;quot; leistet. Um jedoch fahrtüchtig zu sein, bedarf es nicht nur eines Motors, sondern das Fahrzeug benötigt darüber hinaus eine Karosserie, Räder, ein Lenkrad etc. Das wiederum bezeichnet das KI-System, welches das Modell erst durch seine Schnittstellen, seine Benutzeroberfläche etc. &amp;quot;fahrtüchtig&amp;quot; und damit nutzbar macht.&amp;lt;/mark&amp;gt; Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen &amp;quot;Nutzer&amp;quot;) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder sich in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollen:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität), unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act trat am &#039;&#039;&#039;1. August 2024&#039;&#039;&#039; in Kraft und wird generell am &#039;&#039;&#039;2. August 2026&#039;&#039;&#039; anwendbar (Art 113 AI Act). Gestaffelt erlangen einige Bestimmungen jedoch bereits vorab oder danach Geltung:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab &#039;&#039;&#039;2. August 2025&#039;&#039;&#039;&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem &#039;&#039;&#039;2. August 2027&#039;&#039;&#039;&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 111 Abs 2 AI Act enthält dabei jedoch eine sog „grandfathering“-Klausel, nach welcher der AI Act für Betreiber von Hochrisiko-KI-Systemen, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, nur dann gilt, wenn diese Systeme danach in ihrer Konzeption erheblich verändert wurden.&amp;lt;ref&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 23, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Verpflichtung zur Maßnahmenergreifung gilt für Betreiber und Anbieter gleichermaßen und ist ferner unabhängig von der Risikoklasse der infragestehenden KI-Anwendung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Unter KI-Kompetenz versteht man grundsätzlich &amp;quot;die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.&amp;quot;&amp;lt;ref&amp;gt;Vgl die Definition in Art 3 Z 56 AI Act.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dies umfasst die notwendigen Kompetenzen, um fundierte Entscheidungen über KI-Systeme zu treffen, technische Elemente zu verstehen sowie korrekt anzuwenden, die Auswirkungen von KI-basierten Entscheidungen auf Betroffene zu verstehen und KI-generierte Ausgaben angemessen zu interpretieren.&amp;lt;ref name=&amp;quot;:1&amp;quot;&amp;gt;Vgl ErwGr 20 AI Act. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dazu gehört auch, den einschlägigen Akteuren der KI-Wertschöpfungskette jene erforderlichen Kenntnisse zu vermitteln, um die Einhaltung und Durchsetzung der Vorschriften des AI Act zu gewährleisten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Weitere Konkretisierungen oder zwingende Mindestvorgaben für die Sicherstellung der KI-Kompetenz enthält der AI Act allerdings nicht und betont sogar, dass die Konzepte der KI-Kompetenz in Bezug auf den jeweiligen Kontext unterschiedlich sein können.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:1&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Die EU-Kommission hat daher ein [https://digital-strategy.ec.europa.eu/de/library/living-repository-foster-learning-and-exchange-ai-literacy &amp;quot;Living Repository&amp;quot;] angelegt, in dem Unternehmen ihre Praktiken in Bezug auf KI-Kompetenz eingetragen haben. Das Repository wird laufend ergänzt, ist jedoch nicht rechtsverbindlich. Weiters bilden die darin enthaltenen Praktiken keine Garantie zur Compliance mit Art 4 AI Act, allerdings stellen sie eine gute Orientierung dar, welche Maßnahmen zur Sicherstellung von KI-Kompetenz in unterschiedlichen Branchen bereits ergriffen werden. Häufig genannte Praktiken umfassen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne eLearning-Plattformen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne Weiterbildungen und Trainingsprogramme,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Kenntnis-basierte Schulungen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Video-/Podcast-Reihen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;spielebasierte Trainings,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Erstellung von KI-Verhaltenskodizes und Risikobewertungssystemen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;eigene Chatbots zum Training im Umgang mit Sprachmodellen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Denkbar ist überdies die Teilnahme an externen Fortbildungen und Schulungen, die Entwicklung von internen Richtlinien (&amp;quot;KI-Guidelines&amp;quot;) oder die Schaffung von sog &amp;quot;KI-Beauftragten&amp;quot; in der Organisation. Ob die Schulungsmaßnahmen fortlaufend zu erfolgen haben, ist rechtlich nicht vorgeschrieben, wird allerdings anzunehmen sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Dieser Ansicht folgend: &#039;&#039;Siglmüller&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 4 KI-Kompetenz Rz 5.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Ebensowenig sind die genauen Inhalte der Kompetenzvermittlungsmaßnahmen definiert. Es kann jedenfalls davon ausgegangen werden, dass diese zielgruppengerecht und zugeschnitten auf unterschiedliche Bedürfnisse erfolgen sollten. Weiters werden sie sich bei manchen Branchen, KI-Einsatzgebieten oder Personengruppen nicht lediglich auf rechtliche oder technische Anforderungen beschränken, sondern ebenso soziale und ethische Komponenten umfassen. Bei der Entwicklung und Nutzung von GPAI-Modellen wird beispielsweise die Vermittlung von Kenntnissen im Zusammenhang mit Urheberrecht, Datenschutz, &amp;quot;Bias&amp;quot; (Verzerrungen) oder &amp;quot;Halluzinationen&amp;quot; (erfundene falsche Ausgaben) sinnvoll sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger,&#039;&#039; Wissenskultur im KI-Zeitalter – eine Auseinandersetzung mit der KI-Kompetenz nach Art 4 AI Act und ihren praktischen Implikationen, ZIIR 2025, 250.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die EU-Kommission hat darüber hinaus eine [https://digital-strategy.ec.europa.eu/de/faqs/ai-literacy-questions-answers &amp;quot;FAQ-Seite&amp;quot;] mit Fragen und Antworten zur KI-Kompetenz angelegt, um einen besseren Überblick über die Anforderungen zu geben.&amp;lt;/mark&amp;gt;    &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten, &amp;lt;mark&amp;gt;da sie besonders schädlich sind, enormes Missbrauchspotenzial aufweisen und im Widerspruch zu europäischen Grundrechten und Grundfreiheiten stehen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 28 AI Act.&amp;lt;/mark&amp;gt; MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt; (Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt; Folgende Praktiken sind davon umfasst: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Praktik&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Nicht erfasste Praktiken&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsgrundlage&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Unterschwellige Beeinflussung außerhalb des Bewusstseins oder manipulative/täuschende Techniken&#039;&#039;&#039;, wodurch die freie Entscheidungsfähigkeit von Personen beeinträchtigt wird und ein Schaden mit hinreichender Wahrscheinlichkeit eintritt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ableitung sensibler Informationen aus Gehirnen von Nutzern über Maschine-Gehirn-Schnittstellen&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 29 AI Act sowie Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 66.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Chatbots, die zur Selbstverletzung verleiten&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 87.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Unterschwellige visuelle oder auditive Reize bzw generelle sensorische Manipulation&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 65 und 68.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erlaubt ist hingegen der Einsatz eines KI-Systems, das personalisierte Empfehlungen auf der Grundlage transparenter Algorithmen und Nutzerpräferenzen verwendet, und sich nicht absichtlich manipulativer Techniken bedient.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 128.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit a&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Ausnutzen der Vulnerabilität/Schutzbedürftigkeit&#039;&#039;&#039; aufgrund des Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine KI-Begleit-App, die durch gewisse Sprachmuster und Verhaltensweisen gezielt emotionale Abhängigkeiten und ungesunde Bindungen bei älteren Menschen erzeugt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-gestütztes Spielzeug, das Kinder zu riskanten Herausforderungen ermutigt oder durch süchtig machende Techniken zu übermäßigem Spielen anregt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte &amp;quot;Grooming-Praktiken&amp;quot; (gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht), um Mädchen mit Behinderung im Internet anzusprechen und zu manipulieren&amp;lt;ref&amp;gt;Vgl Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 88 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Kinder beim Lernen einer Fremdsprache durch den Einsatz unterschwelliger Techniken unterstützen soll, sofern sie transparent arbeitet und die Nutzerautonomie wahrt.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Benommenheit und Ermüdung bei Fahrern erkennen und sie im Einklang mit den Sicherheitsvorschriften mit Warnmeldungen auf Ruhepausen hinweisen, gelten ebenso nicht als Ausnutzung von Vulnerabilitäten.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 130ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit b&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social scoring&#039;&#039;&#039; (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Verwendung eines KI-Systems zur Schätzung der Betrugswahrscheinlichkeit bei Empfängern von Haushaltszulagen durch das Sozialamt, das sich auf Merkmale stützt, die in sozialen Kontexten ohne offensichtlichen Zusammenhang mit oder Relevanz für die Bewertung von Betrug erhoben oder abgeleitet werden, wie zB ein Ehepartner mit einer bestimmten Staatsangehörigkeit oder ethnischen Herkunft, der Besitz eines Internetanschlusses, das Verhalten auf sozialen Plattformen oder die Leistung am Arbeitsplatz etc.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems durch eine öffentliche Stelle, um für die Früherkennung gefährdeter Kinder anhand von Kriterien wie der psychischen Gesundheit und Arbeitslosigkeit der Eltern, aber auch anhand von aus verschiedenen Kontexten abgeleiteten Informationen über das soziale Verhalten der Eltern Familienprofile zu erstellen. Auf der Grundlage der erzielten Bewertung werden Familien für Kontrollen ausgewählt und als „gefährdet“ geltende Kinder werden aus ihren Familien genommen, unter anderem auch in Fällen geringfügiger Übertretungen seitens der Eltern, wie zB gelegentlich verpasste Arzttermine oder verhängte Verkehrsstrafen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine Regierung führt ein umfassendes KI-gestütztes System ein, das die Bürgerinnen und Bürger auf der Grundlage ihres Verhaltens in verschiedenen Lebensbereichen wie sozialen Interaktionen, Online-Aktivitäten, Kaufgewohnheiten und Pünktlichkeit bei der Begleichung von Rechnungen überwacht und einstuft. Menschen mit einer niedrigeren Bewertung müssen damit rechnen, dass sie eingeschränkten Zugang zu öffentlichen Dienstleistungen erhalten, höhere Zinsen auf Kredite zahlen und auf Reisen und bei der Suche nach einer Wohnung oder sogar einem Arbeitsplatz Schwierigkeiten haben.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 166 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Bonitätsprüfung natürlicher Personen auf Basis persönlicher Merkmale wie dem Einkommen vor Vergabe eines Kredits.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basierte Erhebung von Geschwindigkeitsüberschreitungen oder hochriskantem Fahrverhalten, die zur Erhöhung der KFZ-Versicherungsprämien führen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte gezielte kommerzielle Werbung fällt nicht in den Anwendungsbereich, wenn sie auf relevanten Daten (z. B. Nutzerpräferenzen) beruht, im Einklang mit den Rechtsvorschriften der Union über Verbraucherschutz, Datenschutz und digitale Dienste erfolgt und nicht zu einer Schlechterstellung oder Benachteiligung führt, die in keinem angemessenen Verhältnis zur Tragweite des sozialen Verhaltens des Nutzers steht (z. B. ausbeuterische und unfaire differenzierte Preisgestaltung).&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 177.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit c&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Bewertung des Risikos, dass eine Person eine Straftat&#039;&#039;&#039; begeht (ausschließlich aufgrund von Profiling)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Eine Polizeidienststelle verwendet KI-gestützte Risikobewertungsinstrumente, um das Risiko zu bewerten, dass kleine Kinder und Jugendliche an „künftigen Gewalttaten und Eigentumsdelikten“ beteiligt sein werden. Das System bewertet Kinder auf der Grundlage ihrer Beziehungen zu anderen Menschen und deren vermeintlichen Risikoniveaus, dh es wird eventuell davon ausgegangen, dass bei Kindern ein höheres Risiko für die Begehung von Straftaten besteht, einfach weil sie mit einer anderen Person wie einem Geschwisterkind oder einem Freund verbunden sind, bei der eine hohe Risikobewertung vorliegt. Das Risikoniveau der Eltern kann sich ebenfalls auf das Risikoniveau eines Kindes auswirken.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 202.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Standortbezogene oder geodatenbasierte Vorhersagen oder ortsbezogene Verbrechensvorhersagen (zB KI-System zur Berechnung der Kriminalitätswahrscheinlichkeit in bestimmten Stadtgebieten oder von Schmuggelrouten)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Unterstützung der durch Menschen durchgeführten Bewertung, die sich auf objektive und überprüfbare Tatsachen stützt, die in Zusammenhang mit einer kriminellen Aktivität stehen (zB Profiling zur Vorhersage gefährlichen Verhaltens in einer Menschenmenge, KI-basiertes Profiling von Personen, gegen die bereits ein Verdacht besteht, der auf mehreren überprüfbaren, objektiven Tatsachen beruht).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basiertes Profiling in Bezug auf juristische Personen&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur individuellen Vorhersage von Ordnungswidrigkeiten (zB Bagatellverkehrsdelikte)&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 212 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit d&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erstellung/Erweiterung von &#039;&#039;&#039;Datenbanken&#039;&#039;&#039; zur Gesichtserkennung durch &#039;&#039;&#039;ungezieltes Auslesen von Gesichtsbildern&#039;&#039;&#039;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen für Gesichtserkennungssoftware sammelt Bilder von Gesichtern, die mit einem „automatisierten Bildausleser“, der das Internet durchsucht und Bilder mit menschlichen Gesichtern erkennt, aus sozialen Medien (zB Facebook, X) ausgelesen wurden. Der Bildausleser sammelt diese Bilder mit allen damit verbundenen Informationen (wie der Quelle des Bildes (URL), der Geolokalisierung und manchmal den Namen der einzelnen Personen). Die Gesichtsmerkmale werden dann aus den Bildern extrahiert und in mathematische Darstellungen umgewandelt, die für die Indexierung und den künftigen Vergleich mit Hashtags versehen werden. Wenn ein Nutzer das Bild einer Person in das KI-System hochlädt, wird dieses System bestimmen, ob dieses Bild mit einem Gesicht in der Datenbank übereinstimmt.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 232.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Das ungezielte Auslesen anderer biometrischer Daten als Gesichtsbilder (zB Stimmaufnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Gesichtsbilddatenbanken, die nicht für die Erkennung von Personen verwendet werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Gesichtsbilder aus dem Internet sammeln, um KI-Modelle zur Erzeugung neuer Bilder fiktiver Personen zu entwickeln&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit e&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Emotionserkennungssysteme&#039;&#039;&#039; am Arbeitsplatz oder in Bildungseinrichtungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das beispielsweise aus Gesten, Stirnrunzeln oder fehlendem Lächeln ableitet, dass ein Mitarbeiter unglücklich, traurig oder gegenüber den Kunden wütend ist&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Systeme, die aus Stimmführung oder Körpersprache ableiten, dass ein Schüler zornig und im Begriff ist, gewalttätig zu werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Emotionen aus Tastenanschlägen (Art des Tippens), Gesichtsausdrücken, Körperhaltungen oder Bewegungen ableitet, beruht auf biometrischen Daten und fällt in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die den emotionalen Ton in hybriden Arbeitsteams überwachen, indem sie Emotionen aus Stimm- und Bildaufnahmen hybrider Videokonferenzen erkennen und ableiten, was in Regel der Förderung des sozialen Bewusstseins, des Managements emotionaler Dynamik und der Konfliktverhütung dienen würde&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems bei Online-Prüfungen zur Erkennung von Emotionen wie Erregungs- und Angstzustände&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung zur Bewertung des Wohlbefindens, des Motivationsniveaus und der Arbeits- oder Lernzufriedenheit von Studierenden oder Arbeitnehmern.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der Einsatz von KI-Erkennungssystemen, um auf die Ermüdung eines Berufspiloten oder -fahrers zu schließen, ihn zu warnen und ihm zu empfehlen, zur Vermeidung von Unfällen Pausen einzulegen, da Emotionserkennung keine physischen Zustände wie Schmerzen oder Ermüdung einschließt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das aus schriftlichen Texten (Analysen von Inhalt und Stimmung) Emotionen ableitet, um den Stil oder den Ton eines bestimmten Artikels zu bestimmen, beruht nicht auf biometrischen Daten und fällt daher nicht in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Werden Emotionserkennungssysteme nur zu persönlichen Schulungszwecken eingesetzt, sind sie zulässig, sofern die Ergebnisse nicht Personen mit Personalverantwortung zur Verfügung gestellt werden und keine Auswirkungen auf das Arbeitsverhältnis haben&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die durch eine Bildungseinrichtung erfolgende Verwendung einer KI-gestützten Software zur Verfolgung der Augenbewegungen bei Online-Prüfungen Studierender, um den Fixierungspunkt und die Bewegung der Augen zu verfolgen (um beispielsweise zu erkennen, ob unerlaubtes Material verwendet wird), ist nicht verboten, da das System Emotionen weder erkennt noch ableitet&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung aus medizinischen Gründen zur Unterstützung von Arbeitnehmern oder Studierenden mit Autismus und zur Verbesserung der Barrierefreiheit für blinde oder gehörlose Menschen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit f&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Kategorisierung,&#039;&#039;&#039; Ableitung von sensiblen Daten (religiöse Weltanschauung, politische Einstellung)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Personen, die auf einer Plattform sozialer Medien aktiv sind, nach ihrer angenommenen politischen Ausrichtung kategorisiert, indem es die biometrischen Daten der von ihnen auf die Plattform hochgeladenen Fotos analysiert, um ihnen gezielte politische Nachrichten zu übermitteln&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;ein System zur biometrischen Kategorisierung, das für sich in Anspruch nimmt, die religiöse Ausrichtung einer Person aus ihren Tätowierungen oder ihrem Gesicht ableiten zu können.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 280 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die mit der Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze, auch zu Strafverfolgungszwecken, befasst sind (zB bei Verdacht auf Darstellungen sexuellen Kindesmissbrauchs)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;die Kategorisierung von Patienten, bei der Bilder nach ihrer Haut- oder Augenfarbe verwendet werden, für medizinische Diagnosen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 284 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit g&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Echtzeit-Fernidentifizierungssysteme&#039;&#039;&#039; in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die polizeiliche Verwendung von Systemen zur biometrischen Echtzeit-Fernidentifizierung zu dem Zweck, Ladendiebe zu identifizieren und ihre Gesichtsbilder mit Kriminaldatenbanken zu vergleichen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 328.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung von Echtzeit-Gesichtserkennungstechniken durch die Polizei nach einem schweren Terroranschlag auf einen Weihnachtsmarkt mit zwölf Toten, um den Täter zu identifizieren und festzustellen, wohin er flieht. In diesem Zusammenhang nutzen sie auch die Echtzeit-Gesichtserkennungstechnik des nahe gelegenen Bahnhofs und der Zielbahnhöfe der Züge, die kurz nach dem Angriff von dort abgehen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 354.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit h&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&amp;lt;br /&amp;gt;&lt;br /&gt;
Einige dieser Praktiken sind darüber hinaus bereits nach anderen Rechtsvorschriften verboten, so beispielsweise gewisse manipulative und täuschende Techniken als &amp;quot;dark patterns&amp;quot; nach dem [[Digital Services Act (DSA)|Digital Services Act]] (gilt nur für bestimmte Plattform-Anbieter) oder die Verarbeitung biometrischer Daten zur Identifizierung einer Person nach Art 9 Abs 1 DSGVO, sofern keine der in Abs 2 genannten Ausnahmen vorliegt. Gemäß der neuen Plattformarbeitsrichtlinie&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Richtlinie (EU) 2024/2831 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit, ABl L 11. 11. 2024.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;, die bis Dezember 2026 in nationales Recht umzusetzen ist, ist überdies der Einsatz von automatisierten Überwachungs- und Entscheidungssystemen zur Erfassung personenbezogener Daten über den emotionalen oder psychischen Zustand einer Person (Emotionserkennung) verboten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;MwN &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2024) Art 5 Rz 104.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act klassifiziert Hochrisiko-KI-Systeme in Art 6. Dabei kennt er zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige&amp;quot; Hochrisiko-KI-Systeme bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei folgenden Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder stellt selbst ein solches Produkt dar&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten: bspw biometrische Identifizierung, kritische Infrastrukturen, grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle, Justiz und demokratische Prozesse).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis einer Entscheidungsfindung, an der das System beteiligt ist, wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot; &amp;lt;mark&amp;gt;Als Profiling gilt dabei iSd Art 4 Abs 4 DSGVO jede automatisierte Verarbeitung personenbezogener Daten, die darin besteht, bestimmte persönliche Aspekte einer Person zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, Gesundheit, persönliche Vorlieben, Zuverlässigkeit, Verhalten etc. zu analysieren oder vorherzusagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Europäische Kommission hat im Rahmen von Public Consultations unter anderem auch Rückmeldungen zu Anforderungen an Hochrisiko-KI-Systeme eingeholt, die eine Grundlage für Leitlinien bilden sollen, welche im Februar 2026 veröffentlicht werden sollen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;European Commission, Commission launches public consultation on high-risk AI systems, https://digital-strategy.ec.europa.eu/en/news/commission-launches-public-consultation-high-risk-ai-systems (Stand 6.6.2025).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Pflichten für Betreiber von Hochrisiko-KI-Systemen&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Betreiberpflichten nach Art 26 AI Act&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis &amp;lt;mark&amp;gt;([https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#KI-Kompetenz/AI_literacy_(Art_4_AI_Act) &amp;quot;KI-Kompetenz&amp;quot;] nach Art 4&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 40. &amp;lt;/ref&amp;gt;)&amp;lt;/mark&amp;gt; verfügen und ihnen die erforderliche Unterstützung zukommen lassen. &lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von automatisiert erzeugten &#039;&#039;&#039;Protokollen&#039;&#039;&#039; &amp;lt;mark&amp;gt;für einen Zeitraum von zumindest 6 Monaten (wobei hier entgegenstehende datenschutzrechtliche Regelungen vorgehen würden&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 42.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;)&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, vor Verwendung oder Inbetriebnahme des Hochrisiko-KI-Systems am Arbeitsplatz. &amp;lt;mark&amp;gt;Dies umfasst sowohl den Einsatz von &amp;quot;eingebetteten&amp;quot; als auch &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Weiters sind die Mitwirkungspflichten des Betriebsrats zu berücksichtigen (vgl §§ 96 f ArbVG). Nicht umfasst sind wahrscheinlich Informationspflichten gegenüber Bewerbern, da diese tendenziell nicht unter den von dieser Bestimmung geforderten &amp;quot;Arbeitnehmer-Begriff&amp;quot; fallen&amp;lt;/mark&amp;gt;.&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet. &amp;lt;mark&amp;gt;Diese Bestimmung gilt lediglich für den Einsatz von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen nach Art 6 Abs 2 iVm Anhang III.Die danach mitzuteilende Information sollte die Zweckbestimmung und die Art der getroffenen Entscheidung beinhalten (vgl ErwGr 93) sowie - nach einer hier vertretenen Auffassung - eine vorab Information über das Recht auf Erklärung nach Art 86 AI Act, welches von KI-Entscheidungen Betroffenen das Recht zugesteht, unter gewissen Voraussetzungen vom Betreiber eine klare und aussagekräftige Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess sowie zu den wichtigsten Elementen der getroffenen Entscheidung zu erhalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe die entsprechende Argumentationslinie im Detail: &#039;&#039;Research Institute&#039;&#039;, Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025) 100 ff, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.  &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 27 Abs 4 macht überdies die Verzahnung der Grundrechte-Folgenabschätzung (GRFA) mit anderen Folgenabschätzungen deutlich und schreibt bspw vor, dass bei Vorliegen einer Datenschutz-Folgenabschätzung nach Art 35 DSGVO die GRFA diese ergänzen bzw in diese integriert werden solle.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Piltz/Zwerschke&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 27 Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme Rz 32.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Sowohl die Verpflichtungen nach Art 26 als auch die Durchführung einer GRFA nach Art 27 treffen den Betreiber unabhängig davon, ob jemand (bspw Betroffene) deren Einhaltung einfordern. Im Unterschied dazu enthält der AI Act in den Artt 85 ff sog &amp;quot;Betroffenenrechte&amp;quot;, die aktiv von betroffenen Personen geltend zu machen sind. Dazu zählt insbesondere das [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Recht auf Erklärung nach Art 86], welches das einzige Betroffenenrecht darstellt, das direkt gegen den Betreiber durchsetzbar ist.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführer oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn die genannten Personen ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen;&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt;&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das &#039;&#039;nicht&#039;&#039; als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird.&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter (Erstanbieter) nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat jedoch mit dem neuen Anbieter zusammenzuarbeiten, insb Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI Act muss beachtet werden, dass die Rollenverteilung eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters erfolgt, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden &amp;lt;mark&amp;gt;sowie den Anforderungen an die Barrierefreiheit genügen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots, &amp;lt;mark&amp;gt;Sprachassistenten, Social Bots)&amp;lt;/mark&amp;gt;, sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Pflicht kann entfallen, wenn die Interaktion mit dem KI-System aus Sicht einer angemessen informierten, aufmerksamen und verständigen Person offensichtlich ist oder beim Einsatz von KI-Systemen, die für die Strafverfolgung zugelassen sind.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 43.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
*&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 40.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Chatbots&#039;&#039;&#039; können durch einen textlichen Hinweis zu Beginn des Gesprächs oder ein dauerhaft angezeigtes grafisches Symbol vorgestellt werden.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Bei &#039;&#039;&#039;Voicebots&#039;&#039;&#039; kommt eine der Interaktion vorausgehende Ansage, welche auf den KI-Einsatz hinweist, in Betracht.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social Bots&#039;&#039;&#039; können eine Information vor und mit jeder Interaktion des Bots in sozialen Netzwerken erfordern, da das System stets mit einem neuen Personenkreis in Interaktion tritt (zB AI-Influencer).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Das KI-Büro hat am 5. November 2025 Arbeiten an einem Verhaltenskodex in Bezug auf die Kennzeichnung von KI-generierten Inhalten aufgenommen. Die entsprechenden Leitlinien werden in einem siebenmonatigen Prozess, der sich insbesondere durch die Einbindung von relevanten Stakeholdern und öffentliche Konsultationen auszeichnen soll, erarbeitet werden. Näheres unter: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Mögliche Methoden wären bspw Wasserzeichen, Metadatenidentifizierungen, Kryptografische Methoden (zB &amp;quot;Hashing&amp;quot;), Protokollierungsmethoden oder Fingerabdrücke.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 133 Satz 4 sowie mwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 84 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Denkbar ist bspw eine Umsetzung in Form eines sichtbaren Wasserzeichens, eines textlichen Hinweises, durch Hinzufügen von sog C2PA-Content Credentials&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Die C2PA („Coalition forContent Provenanceand Authenticity“) ist ein branchenübergreifendes Non-profit-Projekt, das die Entwicklung gemeinsamer technischer Standards zur Ermittlung der Herkunft von digitalen Inhalten zum Ziel hat. Siehe dazu https://c2pa.org/. So hat sich bspw LinkedIn bei der Erkennung KI-generierter Inhalte diesen Standards unterworfen: https://www.linkedin.com/help/linkedin/answer/a6282984. MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 150.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;oder bei Audioinhalten durch eine Ansage zu Beginn des Audioinhalts.&amp;lt;ref&amp;gt;&#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 148 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Verpflichtung entfällt, wenn die betreffenden Inhalte vor ihrer Veröffentlichung einer menschlichen oder redaktionellen Kontrolle unterzogen wurden und eine Person die redaktionelle Verantwortung dafür trägt. Da die Anforderungen an die menschliche bzw redaktionelle Kontrolle nicht konkretisiert werden, unterwerfen sich bspw im journalistischen Bereich zahlreiche Medien freiwilligen Leitlinien (so etwa die [https://www.blm.de/files/pdf2/ki-leitlinien.pdf Leitlinien des Medienrats der Bayerischen Landeszentrale für neue Medien (BLM) zum Einsatz von Künstlicher Intelligenz im Journalismus]).&amp;lt;ref&amp;gt;MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 163 f.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als &amp;quot;KI-Systeme mit minimalem Risiko&amp;quot; bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf den sprunghaften Durchbruch generativer KI-Modelle, die für viele verschiedene Zwecke eingesetzt werden können, in den Jahren 2022 und 2023 wurden unter Durchbrechung des bisherigen zweck- und risikoorientierten Regelungsansatzes im Entwurfsstadium des AI Act nachträglich Regeln für solche Modelle eingefügt. Ein GPAI-Modell (in früheren Entwurfsfassungen foundation model/Basismodell) ist dabei in Art 3 Z 63 AI Act definiert als ein KI-Modell, das&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;das eine erhebliche allgemeine Verwendbarkeit aufweist,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;In den von der EU-Kommission im Juli 2025 veröffentlichten Leitlinien zu GPAI-Modellen werden eine kumulierte Menge der für das Training verwendeten Berechnungen von mehr als 10&amp;lt;sup&amp;gt;23&amp;lt;/sup&amp;gt; FLOPs und die Fähigkeit, geschriebene oder gesprochene Sprache (aber auch Bilder oder Videos aus Text) zu generieren, als Anhaltspunkte für das Vorliegen eines GPAI-Modells angegeben, es sei denn, das Modell erfüllt die oben angegebenen Kriterien der Allgemeinheit nicht (zB weil es spezifisch nur für die Transkription von Sprache in Text trainiert wurde).&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 13ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Somit ist davon auszugehen, dass die üblichen [https://de.wikipedia.org/wiki/Large_Language_Model LLM]s, wie die GPT-Serie von OpenAI, die Gemini-Serie von Google oder die Claude-Serie von Anthropic als GPAI-Modelle im Sinne dieser Definition einzustufen sind.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Abgrenzung der Rollen entlang der Wertschöpfungskette&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&amp;lt;mark&amp;gt;In Bezug auf GPAI-Modelle können drei Rollen unterschieden werden:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Anbieter (Provider):&#039;&#039;&#039; Entwickeln, trainieren und veröffentlichen Modelle. Sie tragen primär Verantwortung für Modellqualität, Sicherheit und Dokumentation.&amp;lt;/mark&amp;gt;&lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Nachgelagerte Anbieter (Downstream Provider):&#039;&#039;&#039; Feintunen, modifizieren oder integrieren Modelle in KI-Systeme.&amp;lt;/mark&amp;gt; &lt;br /&gt;
# &amp;lt;mark&amp;gt;&#039;&#039;&#039;Betreiber (Deployer):&#039;&#039;&#039; Nutzen ein KI-System im praktischen Einsatz.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Ein wesentlicher Zweck der Regulierung von GPAI-Modellen ist, dass nachgelagerte Anbieter, ein GPAI-Modell in ihr KI-System integrieren, Informationen über dieses Modell erhalten und darauf basierend ihren eigenen Verpflichtungen nachkommen zu können.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme der Hauptgegenstand der Regulierung durch den AI Act sind (risikobasierten Ansatz), unterliegen auf Ebene der Modelle nur GPAI-Modelle einer direkten Regulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese Regulierung unterscheidet zwischen GPAI-Modellen ohne und GPAI-Modellen mit systemischem Risiko. Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act), &lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über &amp;quot;Fähigkeiten mit hohem Wirkungsgrad&amp;quot; verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; beträgt. Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act). Oder&lt;br /&gt;
* wenn die Kommission in einer Entscheidung festgestellt hat, dass es über solche Fähigkeiten oder eine solche Wirkung verfügt (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden. &lt;br /&gt;
* Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
* eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
* eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
* mögliche systemische Risiken auf Unionsebene bewerten und mindern,&lt;br /&gt;
* einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
* ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten.&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung dieser Verordnung beizutragen sollen (Art 56 Abs 1 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die Praxisleitfäden sollen mindestens die in Art 53-55 AI Act vorgesehenen Pflichten abdecken, darunter (Art 56 Abs 2 AI Act)&lt;br /&gt;
&lt;br /&gt;
* Mittel, mit denen sichergestellt wird, dass die in Art 53 Abs 1 lit a und b AI Act genannten Informationen (technische Dokumentation des Modells; Information und Dokumentation für die Integrierung des Modells) vor dem Hintergrund der Marktentwicklungen und technologischen Entwicklungen auf dem neuesten Stand gehalten werden&lt;br /&gt;
* die angemessene Detailgenauigkeit bei der Zusammenfassung der für das Training verwendeten Inhalte&lt;br /&gt;
* die Ermittlung von Art und Wesen der systemischen Risiken auf Unionsebene&lt;br /&gt;
* die Maßnahmen, Verfahren und Modalitäten für die Bewertung und das Management der systemischen Risiken auf Unionsebene&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von KI-Modellen mit allgemeinem Verwendungszweck sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 65 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein erster Entwurf eines solchen Leitfadens, ausgearbeitet von internationalen Expert*innen, wurde im November 2024 von der Europäischen Kommission präsentiert.&amp;lt;ref&amp;gt;&#039;&#039;European Commission&#039;&#039;, First Draft of the General-Purpose AI Code of Practice published, written by independent experts, https://digital-strategy.ec.europa.eu/en/library/first-draft-general-purpose-ai-code-practice-published-written-independent-experts (Stand 14. 11. 2024).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Für den am 10. Juli 2025 veröffentlichten Praxisleitfaden hat die EU-Kommissionen eine allgemeine [https://digital-strategy.ec.europa.eu/de/faqs/questions-and-answers-code-practice-general-purpose-ai &amp;quot;FAQ-Sektion&amp;quot;] angelegt, um zusätzliche Informationen bereitzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt. &lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der AILD und PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Stand November 2025 wurde in Österreich noch keine Behörde als zuständige Marktüberwachungsbehörde eingerichtet oder benannt. Bereits mit 2. November 2024 sind jedoch einige Behörden und öffentliche Stellen im Grundrechtsbereich gemäß Art 77 Abs 2 mit Aufsichts- und Durchsetzungsbefugnissen für Grundrechte insb im Zusammenhang mit Hochrisiko-KI ausgestattet worden, darunter die Volksanwaltschaft, die Datenschutzbehörde, die Arbeiterkammer, die Gleichbehandlungskommission, die Behindertenanwaltschaft, die KommAustria uvm.&amp;lt;ref&amp;gt;Mehr dazu unter: https://www.digitalaustria.gv.at/themen/kuenstliche-intelligenz/behoerden-art77-ai-act.html.&amp;lt;/ref&amp;gt; Dabei treffen auch die (künftig) zuständige Marktüberwachungsbehörde umfassende Kooperationspflichten, wie etwa die Meldung schwerwiegender Grundrechtsvorfälle in diesem Kontext an die genannten Einrichtungen (vgl Art 73 Abs 7 und Art 79 Abs 2 AI Act).&amp;lt;ref&amp;gt;Vgl &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 103, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Dazu hat die Kommission entsprechende Leitlinien zu veröffentlichen, die sich gerade in Ausarbeitung befinden.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung im Einzelfall betroffen sind,&lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (&amp;lt;mark&amp;gt;Recht auf Erläuterung der Entscheidungsfindung im Einzelfall gemäß Art 86 Abs 1 AI Act oder auch gemeinhin als &#039;&#039;&#039;&amp;quot;Recht auf Erklärung&amp;quot;&#039;&#039;&#039; bezeichnet&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157; &#039;&#039;Poindl/Müller,&#039;&#039; Das Recht auf Erklärung im AI Act. Betroffenenrecht mit Potenzial oder Papiertiger?, VbR 2025, 40. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei ist es unerheblich, ob das KI-System die Entscheidung gänzlich autonom getroffen hat oder unterstützend beteiligt war, es darf lediglich keine untergeordnete Rolle im Entscheidungsprozess gespielt haben.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Steht das Recht auf Erklärung zu, hat die betroffene Person einerseits das Recht, eine Erklärung über die Rolle des KI-Systems im Entscheidungsprozess zu verlangen, worunter einerseits Informationen über die zentralen Aufgaben des Systems im Entscheidungsprozess fallen (zB Zielgruppenselektion, Datenanalyse, Vorgabe der Entscheidung usw.) und andererseits auch der Grad dessen Beteiligung (gering, mittel, hoch), was umgekehrt auch den Grad menschlicher Beteiligung an der Entscheidungsfindung erfordert. Weiters sind die wichtigsten Elemente der Entscheidung zu beauskunften, beispielsweise Eingabedaten, wesentliche Entscheidungsgründe, kontrafaktische Erklärungen (inwiefern hätten andere Parameter zu einer anderen Entscheidungen geführt), die Auswirkungen der Entscheidung, die Gewichtung der einzelnen Kriterien und die Verarbeitungslogik (Informationen über die grobe Funktionsweise des KI-Systems, keine komplette Offenlegung des algorithmischen Codes). Weiters muss die Erklärung präzise, korrekt, verständlich, nicht zu technisch (keine komplexen mathematischen Formeln), aber dennoch vollständig sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letzter Referenzpunkt ist stets, ob die betroffene Person auf Basis der erlangten Informationen weitere Rechte geltend machen kann, da das Recht auf Erklärung auch oft als &amp;quot;Türöffner&amp;quot; für die Geltendmachung weiterer Rechte dient (so wird bspw eine Klage wegen Diskriminierung in einem Entscheidungsprozess erst erhoben werden können, wenn die betroffene Person genügend Informationen hat, um die Diskriminierung darzulegen, bspw die Gewichtung von bestimmten persönlichen Merkmalen, die ausschlaggebend für die Entscheidung war).&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Es handelt sich somit um ein nachgelagertes bzw &#039;&#039;ex post&#039;&#039; Recht, das nicht nur globale, abstrakte Systemerklärungen erfordert, sondern auch lokale, einzelfallbezogene Auskünfte umfasst, damit die betroffene Person die Informationen wirksam nutzbar machen kann .&amp;lt;/mark&amp;gt; Das Recht auf Erklärung steht Betroffenen gegenüber Betreibern und nicht gegenüber Anbietern zu, wobei letztere wiederum Betreibern entsprechende Betriebsanleitungen bereitzustellen haben (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung gilt nicht, sofern Ausnahmen nach Unionsrecht oder nationalem Recht bestehen (Art 86 Abs 2). Zu denken wäre hier etwa an Beschränkungen der Informationspflicht aufgrund geschützter Betriebs- oder Geschäftsgeheimnisse, wobei diese nicht zu einer pauschalen Auskunftsverweigerung führen dürfen.&amp;lt;/mark&amp;gt; Art 86 Abs 1 gilt überdies nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung Subsidiarität] ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung ist immer dann relevant, wenn Unternehmen, Behörden etc. KI in Entscheidungsfindungsprozessen einsetzen, die Auswirkungen auf bestimmte Personen(-gruppen) haben. Zu denken ist etwa an KI-basierte Entscheidungen über die Vergabe von Krediten, über die Berücksichtigung einer Bewerbung, über die Höhe einer Versicherungsprämie oder personalisierte Werbeschaltungen auf Basis von Emotionserkennung.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zum Umgang mit dem Recht auf Erklärung in der Praxis hat das &#039;&#039;Research Institute&#039;&#039; im Auftrag des Bundesministeriums für Arbeit, Soziales, Gesundheit, Pflege und Konsumentenschutz Leitlinien entwickelt:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:f1685e43-21b8-48f3-9fe5-2c61898960ae/Final_Aufkl%C3%A4rung%204.0_Unternehmensleitfaden_April2025.pdf Leitfaden für Unternehmen] im Umgang mit Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:40ba630c-39af-4b8d-8768-a69192427b09/Final_Aufkl%C3%A4rung%204.0_Konsumentinnenleitfaden_April2025.pdf Leitfaden für Konsument:innen und ihre Interessenvertretungen] zur Durchsetzung ihrer Rechte&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf Theoretischer Grundlagenbericht] zur wissenschaftlichen Fundierung der ausgesprochenen Empfehlungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Grundlegende Überschneidungen zwischen dem AI Act und der Datenschutz-Grundverordnung (DSGVO)&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Da KI-Systeme bzw -Modelle häufig personenbezogene Daten verarbeiten - bspw im Rahmen des Trainings eines KI-Modells oder zur Entscheidungsunterstützung in Bezug auf konkrete Personen -, stellt sich unweigerlich die Frage nach dem Zusammenwirken des AI Act mit der DSGVO.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Der Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA) des LfDI Baden-Württemberg enthält eine Auswahl von Orientierungshilfen verschiedener Aufsichtsbehörden und Gremien zu den Schnittstellen von DSGVO und KI: https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0. MwN &#039;&#039;Holtz/Ledendal,&#039;&#039; AI Data Governance - Overlaps Between the AI Act and the GDPR (iE, 2026): https://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1996843&amp;amp;dswid=-4177 sowie der [https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/DE-Bridge-Blueprint-v.0.9.pdf &amp;quot;Bridge Blueprint&amp;quot;-Entwurf] zur einheitlichen Anwendung von Datenschutz- und KI-Regulierung des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI).&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letztere knüpft ihren Anwendungsbereich nämlich an die Verarbeitung personenbezogener Daten iSd Art 4 Abs 1 DSGVO, worunter alle Informationen zu verstehen sind, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Die DSGVO ist seit 2018 in Anwendung und verfolgt den Grundsatz, dass jegliche Verarbeitung personenbezogener Daten verboten ist, es sei denn, es liegt ein Erlaubnistatbestand nach Art 6 Abs 1 DSGVO vor. Für die Verarbeitung sog &amp;quot;sensibler Daten&amp;quot; nach Art 9 DSGVO (zB Gesundheitsdaten, die ethnische Herkunft, die religiöse Weltanschauung etc.) legt sie noch strengere Maßstäbe an. Damit verfolgt die DSGVO einen horizontalen sowie prinzipienbasierten Ansatz, wonach bei der Verarbeitung personenbezogener Daten bestimmte Anforderungen und Grundsätze einzuhalten sind, ungeachtet der verwendeten Technologie, des Sektors oder des Einsatzgebiets.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 32, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus orientiert sich die Verordnung daran, inwieweit eine bestimmte Datenverarbeitung ein Risiko für die Rechte und Freiheiten natürlicher Personen darstellt (&amp;quot;risikobasierter Ansatz&amp;quot;), wonach sich letztendlich die Strenge der von ihr vorgeschriebenen Verpflichtungen bemisst.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Der AI Act erkennt das Primat der DSGVO in Art 2 Abs 7 an und statuiert, dass er deren Anwendungsbereich unberührt lässt. Somit gehen im Falle der Verarbeitung personenbezogener Daten durch eine KI-Anwendung die Regelungen der DSGVO grundsätzlich vor, während der AI Act dem ergänzend eine produktsicherheitsrechtliche Komponente beifügt, die während der Entwicklung und des Einsatzes von KI zu beachten ist.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 33, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Überschneidungen beider Rechtsakte ergeben sich bspw, sobald ein KI-Modell mit personenbezogenen Daten &#039;&#039;&#039;trainiert&#039;&#039;&#039; werden soll. In diesem Fall braucht es eine Rechtsgrundlage nach Art 6 Abs 1 DSGVO (und ggf Art 9 DSGVO), wobei hier am ehesten die berechtigten Interessen des Verantwortlichen nach lit f leg cit infrage kommen. So hat sich bspw der Facebook-Mutterkonzern Meta auf berechtigte Interessen berufen, um sein Sprachmodell &amp;quot;LLaMA&amp;quot; hinter seiner &amp;quot;Meta AI&amp;quot; mit Nutzerdaten zu trainieren. Dagegen erhob die Verbraucherschutzzentrale NRW Antrag auf Erlass einer einstweiligen Verfügung, letztendlich entschied jedoch das OLG Köln in seinem Beschluss vom 23.05.2025 (15 UKl 2/25), dass sich Meta für das KI-Training mit Nutzerdaten auf berechtigte Interessen stützen könne.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://www.verbraucherzentrale.nrw/urteilsdatenbank/digitale-welt/olg-koeln-weist-eilantrag-der-verbraucherzentrale-nrw-gegen-meta-wegen-kitraining-zurueck-108065.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Umgekehrt ist laut Art 35 DSGVO immer dann eine Datenschutz-Folgenabschätzung durchzuführen, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat, insbesondere bei Verwendung neuer Technologien. Darunter fallen gemäß §2 Abs 2 Z 4 DSFA-V&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Verordnung der Datenschutzbehörde über Verarbeitungsvorgänge, für die eine Datenschutz-Folgenabschätzung durchzuführen ist (DSFA-V), BGBl. II Nr. 278/2018.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;insbesondere Datenverarbeitung unter Einsatz von künstlicher Intelligenz, welcher jedenfalls die Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung nach sich zieht. Somit löst auch der Einsatz von KI unter gewissen Voraussetzungen datenschutzrechtliche Pflichten aus.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: Digital Services Act (DSA) vs AI Act ===&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der DSA legt einheitliche Regeln für Vermittlungsdienste mit dem Ziel fest, ein vertrauenswürdiges, (rechts-)sicheres und vorhersehbares Online-Umfeld für Verbraucher und Unternehmen durch eine harmonisierte Plattformregulierung zu gewährleisten. Ebenso zielt das Regelwerk auf den Schutz sowie die Gewährleistung einer effektiven Grundrechtsausübung und normiert umfassende Verpflichtungen für Anbieter von Online-Diensten in Form eines abgestuften Regelungsansatzes, der die unterschiedlichen Compliance-Pflichten an die Art und Größe der jeweiligen Online-Dienste knüpft. Dabei kennt der DSA folgende Anbieterkategorien: Anbieter von allgemeinen Vermittlungsdiensten, Hostingdiensten, Online- sowie Transaktionsplattformen und sehr großen Online-Plattformen (VLOPs) und -Suchmaschinen (VLOSEs). Überschneidungen mit dem AI Act können sich auf zweierlei Weise ergeben: Einerseits können KI-Anwendungen zur Generierung oder Manipulation von Inhalten verwendet werden, die dann über Vermittlungsdienste geteilt werden. Andererseits können KI-Systeme das Kernangebot des Diensteanbieters ausmachen, in der Inhaltsmoderation eingesetzt werden oder Produkt- bzw Service-Empfehlungen auf Basis von Nutzerverhalten (&amp;quot;Empfehlungsalgorithmen&amp;quot;) schalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 48, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Allgemeine Synergien sind dem [[Digital Services Act (DSA)|Eintrag über den DSA]] zu entnehmen.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
* Weiters kann es bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act in Bezug auf die notwendige Risikoanalyse kommen. &amp;lt;mark&amp;gt;So fordern die Artikel 34 und 35 DSA die Analyse jener potenzieller systemischer Risiken, die sich durch das Design, die Funktion oder die Nutzung ihrer Services ergeben, insbesondere im Zusammenhang mit algorithmischen Systemen oder Systemen zur Inhaltsmoderation. Demgegenüber legt der AI Act in Art 17 die Verpflichtung für Anbieter von Hochrisiko-KI-Systemen zur Etablierung eines Risikomanagementsystems gemäß Art 9 AI Act fest und sieht spezielle Anforderungen für Anbieter von GPAI-Modellen mit systemischem Risiko vor (Art 55 Abs 1 lit b AI Act).&amp;lt;/mark&amp;gt; Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Im Fall von Anbietern von Hochrisiko-KI-Systemen sieht der AI Act sogar explizit die Möglichkeit vor, Risikomanagementprozesse nach anderen unionsrechtlichen Bestimmungen mit jenen nach dem AI Act zu kombinieren (vgl Art 9 Abs 10 AI Act).&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 49, &amp;lt;nowiki&amp;gt;https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Art 86 AI Act normierte Recht auf Erläuterung] besteht potentiell eine Subsidiarität gegenüber anderen Auskunftsansprüchen, insb der Auskunftspflicht nach Art 15 Abs 1 lit h DSGVO iVm Art 22 DSGVO. &amp;lt;mark&amp;gt;Demnach steht Personen, die von einer automatisierten Entscheidungsfindung im Einzelfall einschließlich Profiling betroffen sind, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie ähnlich erheblich beeinträchtigt, das Recht zu, neben allgemeinen Informationen über die Verarbeitung ihrer personenbezogenen Daten aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und Auswirkungen einer derartigen Verarbeitung zu verlangen. Inhaltlich&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;richtet sich der Auskunftsanspruch nach Art 15 Abs 1 lit h DSGVO gemäß rezenter EuGH-Judikatur insb auf die Erläuterung des Verfahrens und der Grundsätze, die bei der automatisierten Verarbeitung der personenbezogenen Daten der betroffenen Person zur Anwendung kamen und zu dem bestimmten Ergebnis geführt haben.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117, Rz 58. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Frage nach einer potenziellen Subsidiarität von Art 86 AI Act gegenüber den entsprechenden datenschutzrechtlichen Vorschriften hängt von unterschiedlichen Fallszenarien ab, in denen die jeweils verwendeten Technologien und verarbeiteten Datenkategorien zu unterschiedlichen Ergebnissen führen können:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 15 Abs 1 lit h iVm Art 22 DSGVO&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsfolge&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Hochrisiko-KI-Einsatz in Entscheidungsfindungsprozessen, in denen entweder keine personenbezogenen Daten gemäß Art 4 Z 1 DSGVO verarbeitet werden (zB Verarbeitung lediglich aggregierter Daten) oder keine vollautomatisierte Entscheidung iSd Art 22 DSGVO getroffen wird (etwa weil ein Mensch maßgeblich an der Entscheidungsfindung beteiligt ist)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Das Recht auf Erklärung steht vollumfänglich wie in Art 86 Abs 1 dargelegt zu (bei Vorliegen der übrigen Voraussetzungen). Der betroffenen Person sind somit klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess und zu den wichtigsten Elementen der getroffenen Entscheidung zu übermitteln, wobei die Erklärung einzelfallbezogen und auf das konkrete Ergebnis gerichtet sein muss. Der Anwendungsbereich von Art 15 (Abs 1 lit h iVm Art 22) DSGVO ist hingegen nicht eröffnet. Das Recht, die Entscheidung anzufechten, steht - zumindest gemäß AI Act - nicht zu.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Es findet eine vollautomatisierte Entscheidungsfindung auf Basis der Verarbeitung personenbezogener Daten statt, allerdings ohne Beteiligung eines Hochrisiko-KI-Systems iSd Art 6 Abs 2 iVm Anhang III AI Act (bspw wird die Entscheidung durch einen herkömmlichen Algorithmus getroffen, der Anforderungen an ein KI-System nach Art 3 Z 1 AI Act nicht erfüllt oder das KI-System fällt nicht in den Hochrisiko-KI-Bereich)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Auskunftsanspruch gemäß Art 15 (Abs 1 lit h iVm Art 22) DSGVO steht bei Vorliegen der übrigen Voraussetzungen zu, während das Recht auf Erklärung nach Art 86 AI Act keine Anwendung findet. Es sind der betroffenen Person somit Informationen über die involvierte Logik, Tragweite und Auswirkungen der Entscheidung zu übermitteln, wobei Informationen über die Rolle des eingesetzten Systems nicht darunter fallen. Im Unterschied zu Art 86 AI Act ist in Bezug auf Art 15 Abs 1 lit h DSGVO jedoch noch unklar, ob auch eine Verpflichtung zu einer einzelfallbezogenen Begründung der konkret erzielten Ergebnisse besteht, die über eine abstrakte/allgemeine Erklärung hinausgeht.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl etwa das EuGH-Urteil in der RS Dun &amp;amp; Bradstreet, welches stärker auf das lokale Element, dh die Einzelentscheidung, abzustellen scheint (EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117). MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 71, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Art 22 Abs 3 DSGVO enthält jedoch im Gegensatz zum AI Act das Recht, die Entscheidung anzufechten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Verarbeitung personenbezogener Daten im Rahmen der Entscheidungsfindung, Einsatz eines Hochrisiko-KI-Systems, vollautomatisierte Entscheidungsfindung&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Anspruch nach Art 86 AI Act tritt ergänzend zu jenem nach der DSGVO hinzu und richtet sich auf jene Informationen, die nach Art 15 DSGVO nicht zu beauskunften sind (bspw die Rolle des KI-Systems im Entscheidungsprozess sowie jedenfalls einzelfallbezogene, lokale Erklärungen). Es handelt sich somit um eine sog &amp;quot;Lückenfüller-Position&amp;quot; von Art 86 AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Ansicht folgend und mwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 96 ff, &amp;lt;nowiki&amp;gt;https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;mark&amp;gt;In der Regel werden Betroffene in der Praxis wohl beide Ansprüche gleichzeitig geltend machen. Dies ist allerdings nur möglich, sofern beide Ansprüche auch gegenüber der selben Person bzw Einrichtung geltend zu machen sind. Denn während das Recht auf Erklärung nach Art 86 AI Act gegen den Betreiber des KI-Systems zusteht, ist der Auskunftsanspruch gemäß Art 15 Abs 1 lit h DSGVO gegen jene Person oder Stelle zu richten, welche die Entscheidung getroffen hat (welche zwar meist aber nicht zwangsläufig mit der Person des datenschutzrechtlich Verantwortlichen iSd Art 4 Z 7 DSGVO ident sein wird&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Argumentation folgend: &#039;&#039;Ziegenhorn,&#039;&#039; Wer ist Adressat des Art. 22 DSGVO? Zur Abgrenzung des Entscheiders vom Verantwortlichen, CR 2024, 586.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;). Die unterschiedlichen Rollen nach AI Act und DSGVO können somit zusammenfallen, müssen dies allerdings nicht, wodurch sich unterschiedliche Verpflichtungen für die beteiligten Akteure ergeben können.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== Produkthaftungsrichtlinie neu und Vorschlag für eine AI Liability Directive [zurückgezogen] ===&lt;br /&gt;
&lt;br /&gt;
* Die Produkthaftungsrichtlinie neu (PHRL neu) und insbesondere &amp;lt;mark&amp;gt;der (zurückgezogene)&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Commission work programme 2025, (11.2.2025) COM(2025) 45 final, 26.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Vorschlag für eine&amp;lt;/mark&amp;gt; AI Liability Directive (AILD) nehmen direkt auf den AI Act Bezug und verweisen bei der Begriffsverwendung häufig auf diesen. Die AILD kann somit nicht ohne den Kontext des AI Act verstanden werden. So sollten die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD bilden ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]). &lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act überträgt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Begleit- bzw Durchführungsgesetz, das die Sanktionen konkretisiert.  &amp;lt;mark&amp;gt;Auch die notifizierende(n) Behörde(n) und die Marktüberwachungsbehörde(n) (Art 70 AI Act) wurden in Österreich noch nicht benannt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 5: Transkriptionstool im Rahmen der Rechtspflege&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|&amp;lt;mark&amp;gt;Im Rahmen des Verfassens von Urteilen oder Protokollen wird das gesprochene Wort (Diktat des Entscheidungsorgans) digital aufgezeichnet und anschließend transkribiert. Das System ist in der Lage, mithilfe KI-gestützter Spracherkennung die jeweils Sprechenden (Speaker Diarisation) sowie juristische Begriffe und Redewendungen zu erkennen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Transkriptionssoftware liegt ein Sprachmodell (LLM) zugrunde, das auf maschinellem Lernen basiert. Dieses wird durch ein User-Interface praktisch nutzbar gemacht und stellt somit ein KI-System iSd AI Act dar.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&amp;lt;mark&amp;gt;Der Einsatz von KI in der Rechtspflege zu gewissen Zwecken kann in den Hochrisiko-KI-Bereich gemäß Art 6 Abs 2 iVm Anhang III Nr 8 lit a AI Act fallen. Solche Systeme sind jedoch nicht als hochriskant einzustufen, sofern sie für rein begleitende administrative Tätigkeiten bestimmt sind, worunter jedenfalls Spracherkennungsprogramme für das Diktieren von Entscheidungen fallen können (ErwGr 61). In einem nächsten Schritt ist die Ausnahmeregelung des Art 6 Abs 3 AI Act zu prüfen, wonach das System höchstwahrscheinlich gemäß lit a leg cit aus dem Hochrisiko-KI-Bereich ausgenommen ist, da es rein für Protokollierungszwecke eingesetzt wird und damit nur eine eng gefasste Verfahrensaufgabe übernimmt. Ebenso ist denkbar, gemäß lit d leg cit aus dem Hochrisiko-KI-Bereich ausgenommen zu sein, sofern das System lediglich eine vorbereitende Aufgabe für die Urteilserstellung übernimmt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Bejaht man hingegen das Vorliegen von Hochrisiko-KI, so treffen deren Anbieter die Pflichten der Art 8 ff AI Act und den Betreiber insbesondere die Pflichten nach Art 26 und 27 AI Act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Sofern es sich um ein KI-Modell mit allgemeinem Verwendungszweck (mit systemischem Risiko) handelt, treffen den Anbieter diesbezüglich Verpflichtungen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Unabhängig von der Risikoeinstufung des Modells bzw Systems sind darüber hinaus die Transparenzpflichten nach Art 50 AI Act zu beachten sowie ein ausreichendes Maß an KI-Kompetenz unter den Beschäftigten, die mit dem Transkriptionstool arbeiten, herzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 6: KI-System zur Filterung und Priorisierung von Bewerbungen&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Sachverhalt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen möchte eine neue Stelle besetzen und erhält unzählige Bewerbungen. Daher entschließt es sich, ein KI-basiertes System einzusetzen, das Bewerbungen filtert und mit einem Einstufungswert versieht, wodurch die Bewerbungen priorisiert werden. Die zuständigen HR-Mitarbeiter*innen weichen nicht mehr von dem Wert ab und vergeben die Stelle schließlich an jene Person, die den höchsten Einstufungswert erhalten hat.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!&amp;lt;mark&amp;gt;Einordnung AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Sofern es sich bei der Anwendung um ein KI-System nach Art 3 Z 1 AI Act handelt, ist der Anwendungsbereich des AI Act grundsätzlich eröffnet. Das Unternehmen ist jedenfalls als dessen Betreiber zu qualifizieren, da es das System in eigener Verantwortung zu beruflichen Zwecken einsetzt. Sofern es das KI-System auch selbst entwickelt / entwickeln lässt und es unter eigener Marke bzw eigenem Namen in Betrieb nimmt, ist es sogar Anbieter.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]].&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Darüber hinaus stellt das System ein &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System nach Art 6 Abs 2 iVm Anhang III Punkt 4a AI Act dar, da es bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet wird, um Bewerbungen zu filtern und Bewerber zu bewerten. Eine Ausnahme nach Art 6 Abs 3 AI Act vom Hochrisiko-KI-Bereich liegt nicht vor, da das KI-System das Ergebnis der Entscheidungsfindung wesentlich beeinflusst (von dem KI-generierten Eignungswert wird nicht mehr abgewichen). Je nach Rolle treffen das Unternehmen nun weitereichende Verpflichtungen. In den meisten Fällen wird das Unternehmen wohl als Betreiber zu klassifizieren sein, weshalb es unter anderem die Betreiberpflichten nach Art 26 AI Act zu erfüllen und unter gewissen Voraussetzungen eine Grundrechte-Folgenabschätzung nach Art 27 AI Act durchzuführen hat. Art 26 Abs 7 sieht grundsätzlich auch die spezielle Betreiberpflicht vor, vor Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz die Arbeitnehmervertreter und betroffenen Arbeitnehmer über den KI-Einsatz zu informieren. Inwieweit diese Verpflichtung auch gegenüber Bewerbern gilt, die streng genommen (noch) keine Arbeitnehmer sind, ist fraglich und wird wohl zu verneinen sind. Diese vermeintliche Rechtsschutzlücke wird jedoch ohnehin wieder durch die Verpflichtung gemäß Art 26 Abs 11 AI Act ausgeglichen, von Hochrisiko-KI-Entscheidungen betroffene Personen über diesen KI-Einsatz zu informieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= &amp;lt;mark&amp;gt;Digitaler Omnibus&amp;lt;/mark&amp;gt; =&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 19. November 2025 stellte die Europäische Kommission das sogenannte &#039;&#039;&#039;„Digital Omnibus Package“&#039;&#039;&#039; vor, ein Legislativpaket mit dem Ziel, den digitalen Rechtsrahmen der EU zu vereinfachen.&amp;lt;ref name=&amp;quot;:2&amp;quot;&amp;gt;Vgl https://ec.europa.eu/commission/presscorner/detail/de/ip_25_2718. &amp;lt;/ref&amp;gt; Ziel der Maßnahme ist, Verwaltungs- und Umsetzungskosten zu senken, Rechtsklarheit zu erhöhen und insbesondere kleine und mittlere Unternehmen (KMU) zu entlasten, da Unternehmen zunehmend Schwierigkeiten bei der Umsetzung und Koordination von Vorgaben wie etwa dem AI Act sehen. Das Paket umfasst Änderungen und Anpassungen unterschiedlicher Rechtsrahmen, so auch einige Bestimmungen des AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Inhaltliche Änderungen betreffen einerseits die Verpflichtung zur Sicherstellung von KI-Kompetenz (Art 4), welche nunmehr nicht Unternehmen bzw. Einrichtungen selbst treffen soll, sondern die Kommission und die Mitgliedstaaten sind dazu angehalten, Anbieter und Betreiber zur Sicherstellung eines angemessenen Maßes an KI-Kompetenz zu unterstützen. Ebenso stellt die Kommission eine Verzögerung der Anwendbarkeit der Hochrisiko-KI-Bestimmungen in Aussicht, welche mit 2. August 2026 bzw 2. August 2027 Anwendung erlangen sollten. Grund ist das Fehlen von entsprechenden Standards, die eigentlich bis August 2025 zu setzen waren und ohne die laut Kommission die Einhaltung der entsprechenden AI Act-Bestimmungen nicht möglich sei. Die Anwendbarkeit der Hochrisiko-KI-Bestimmungen soll sich um bis zu maximal 16 Monate verzögern, wobei die Vorschriften Geltung erlangen, sobald die Kommission die Verfügbarkeit der erforderlichen Standards und Unterstützungsinstrumente bestätigt.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:2&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus enthält der Vorschlag einen neuen Art 4a, der die Verarbeitung sensibler personenbezogener Daten zur Erkennung und Minderung von Bias unter gewissen Voraussetzungen ermöglicht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Kommissionsleitlinien und sonstige Materialen/Verhaltenskodizes&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zur Definition eines Systems der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 6. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118628&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 4. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118661&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Living Repository zur Förderung des Lernens und des Austausches über KI-Kompetenz vom 04. Februar 2025 (mit Update von April 2025): https://ec.europa.eu/newsroom/dae/redirection/document/112203&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Verhaltenskodex für KI-Modelle mit allgemeinem Verwendungszweck (GPAI Modelle) vom 10. Juli 2025:&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Transparenz: https://ec.europa.eu/newsroom/dae/redirection/document/118120&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Urheberrecht: https://ec.europa.eu/newsroom/dae/redirection/document/118115&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Sicherheit: https://ec.europa.eu/newsroom/dae/redirection/document/118119&amp;lt;/mark&amp;gt;  &lt;br /&gt;
*&amp;lt;mark&amp;gt;Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act vom 18. Juli 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118340&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;Leitlinien und Meldevorlagen zur Meldung schwerwiegender KI-Vorfälle gemäß Art 73 AI Act (&#039;&#039;Entwurf, noch in Ausarbeitung&#039;&#039;): https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; AI Act Service Desk. Frequently Asked Questions (FAQs): https://ai-act-service-desk.ec.europa.eu/en/faq.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act)&amp;lt;mark&amp;gt;&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024) &amp;lt;mark&amp;gt;(2. Auflage 2026, iE)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schefzig/Kilian,&#039;&#039; BeckOK KI-Recht&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Hochrangige Expertengruppe für Künstliche Intelligenz,&#039;&#039; Ethik-Leitlinien für eine vertrauenswürdige KI (2019), https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425&amp;lt;/mark&amp;gt;&lt;br /&gt;
* [https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0 Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA)]&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4296</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4296"/>
		<updated>2025-11-25T21:47:58Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* GPAI-Modelle (Art 51 ff AI Act) */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. Februar 2025 (schrittweise)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen von KI-Systemen &lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD, &amp;lt;mark&amp;gt;von der Kommission zurückgezogen&amp;lt;/mark&amp;gt;)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modelle (general purpose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB Verarbeitung zur Vermeidung von Verzerrungen, Art 10), regulatory sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (zB Anbieter- und Betreiberpflichten, Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz (eingeschränkt); reine Forschungszwecke &lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) gelten seit 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (zB Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|Gewährleistung von Transparenz und Verantwortlichkeit&lt;br /&gt;
|Pflichten für Betreiber (professionelle Nutzer*innen) und Anbieter&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (zB Chatbots, Deepfakes)&lt;br /&gt;
|Informationspflichten nach der DSGVO&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
&amp;lt;mark&amp;gt;Der AI Act ist die erste EU-weite, sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) und&amp;lt;/mark&amp;gt; folgt dabei primär einem produktsicherheitsrechtlichem Ansatz, dessen vorrangiges Regulierungsziel die Sicherheit von KI-Systemen und Modellen ist. &amp;lt;mark&amp;gt;Damit ist er Teil des sog [https://single-market-economy.ec.europa.eu/single-market/goods/new-legislative-framework_en?prefLang=de &amp;quot;New Legislative Framework&amp;quot;] (NLF), einem unionsrechtlichen Maßnahmenpaket zur Produktregulierung, das auf die Verbesserung der Marktüberwachung abzielt und sich durch einheitliche Kernelemente auszeichnet (zB Konformitätsbewertungsverfahren, Selbstregulierung, Standards und einheitliche Anforderungen). Im Rahmen des Gesetzgebungsprozesses wurde der Rechtsakt - insbesondere auf Bestreben des Europäischen Parlaments - um menschenrechtliche Aspekte und Betroffenenrechte erweitert, weshalb der AI Act mittlerweile deutlich über reines Produktsicherheitsrecht hinausgeht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modelle&#039;&#039;&#039; bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot;.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei handelt es sich um &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;ableitet&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot;&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe Art 3 Z 1 AI Act. Hervorhebungen nicht im Original. &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;abzuleiten&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Hingegen soll sich nach ErwGr 12 der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen [...]&amp;quot;, womit auf eine Abgrenzung von KI von herkömmlichen Softwarelösungen und Programmierungsansätzen abgezielt wird.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zusammenfassend möchte der EU-Gesetzgeber mit dieser Definition einerseits Rechtssicherheit schaffen, allerdings immer noch Raum für technologischen Fortschritt lassen, um den Anwendungsbereich des AI Act nicht von Vornherein vor potenziellen künftigen technologischen Entwicklungen zu verschließen.&amp;lt;/mark&amp;gt; Dennoch wurde die Definition als zu vage und unbestimmt empfunden. So wurden diverse Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Um den Begriff des KI-Systems also zu konkretisieren und Unsicherheiten zu beseitigen, sollte die Kommission gemäß Art 96 Abs 1 lit f AI Act Leitlinien vorlegen, und damit eine einheitliche Anwendung des Regelwerks fördern sowie Rechtsicherheit gewährleisten&amp;lt;/mark&amp;gt;.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle, &amp;lt;mark&amp;gt;einfache Datenverarbeitungssysteme, auf klassische Heuristik gestützte Systeme, einfache Vorhersagesysteme etc.&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Eine Positiv-Liste, welche Systeme jedenfalls unter den KI-Begriff fallen, enthalten die Leitlinien allerdings nicht. Sie orientieren sich vielmehr an den 7 Kernelementen der KI-Definition gemäß Art 3 Z 1 AI Act. Es wird überdies betont, dass nicht alle Elemente kontinuierlich in den beiden Hauptphasen des Lebenszyklus von KI (&amp;quot;building phase&amp;quot; / &amp;quot;pre-deployment&amp;quot; oder &amp;quot;use phase&amp;quot; / &amp;quot;post-deployment&amp;quot;) vorhanden sein müssen und, dass sich die Leitlinien kontinuierlich weiterentwickeln sollen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Folgende Konkretisierungen der KI-Definition und Beispiele sind den Leitlinien zu entnehmen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Elemente der KI-Definition&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Erläuterungen in den Leitlinien der EU-Kommission&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Maschinengestütztes System&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;KI benötigt Hardware- und Softwarekomponenten&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB eine Hardwareinfrastruktur wie processing units, Speicher, Input/Output-Schnittstellen und Software (Code, Programme etc.)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;autonomer Betrieb (in unterschiedlichem Grade)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erfordert einen gewissen Grad an Unabhängigkeit von menschlichem Eingreifen, wobei Systeme, die vollständig manuelle menschliche Interaktion erfordern, nicht darunter fallen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Umfasst sind Systeme, die zwar einen manuellen Input erfordern, aber von selbst einen Output generieren (zB Chatbots)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anpassungsfähigkeit nach Betriebsaufnahme (optional)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Selbstlernfähigkeiten (nicht zwingend erforderlich); darunter versteht man, ob sich das Verhalten des Systems während seiner Verwendung anpassen oder verändern kann (zB automatisches Lernen, wie Muster oder Beziehungen zwischen Daten erkannt werden können).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungsfähigkeit&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Inferenz, Schlüsseleigenschaft; dient der Abgrenzung von KI-Systemen von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen. Nicht umfasst sind hingegen Systeme, die nur von Menschen programmierten Regeln folgen und automatisiert Operationen ausführen. Die Ableitungsfähigkeit bedeutet daher die Erlernung allgemeiner Konzepte statt fester, vorprogrammierter Regeln.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Bsp: maschinelles Lernen, logik- und wissensgestützte Systeme (Schlussfolgerungen mittels Deduktion oder Induktion)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitung aus Eingaben für implizite oder explizite Ziele&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungen müssen nach entweder:&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;expliziten Zielen (klar definierte, direkt in den Code programmierte Ziele, Optimierung von Kostenfunktionen, Wahrscheinlichkeitsberechnung) oder&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;impliziten Zielen (Ableitung des Ziels aus dem Verhalten oder den dahinterstehenden Annahmen des Systems; bspw Trainingsdaten oder Interaktion des Systems mit Umwelt) erfolgen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erzeugung von Ausgaben&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ausgabe-Arten umfassen unter anderem&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Vorhersagen (Schätzungen unbekannter Werte basierend auf komplexen Datenmustern)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Inhalte (Texte, Bilder, Videos oder Musik)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Empfehlungen (Vorschläge für Maßnahmen, Produkte oder Dienstleistungen, die hochgradig personalisiert sind und Massendaten nutzen).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Entscheidungen (Vollautomatisierte Schlussfolgerungen oder Auswahlentscheidungen, die Prozesse automatisieren, die üblicherweise menschlichem Urteilsvermögen vorbehalten sind)&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;zB die generierten Inhalte von Chatbots, Produktvorschläge, Echtzeit-Vorhersagen, Auswahlentscheidungen&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Beeinflussung physischer oder virtueller Umgebungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Frage, ob das System einen aktiven Einfluss auf die Umgebungen hat, in denen es eingesetzt wird, sei es auf materielle physische Objekte oder auf digitale Räume&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB Roboterarm, Software-Ökosysteme, Datenströme&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}  &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI-Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit aus, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). &amp;lt;mark&amp;gt;Man kann hier den Vergleich zu einem KFZ ziehen, wobei das KI-Modell den Motor darstellt, der die eigentliche &amp;quot;Arbeit&amp;quot; leistet. Um jedoch fahrtüchtig zu sein, bedarf es nicht nur eines Motors, sondern das Fahrzeug benötigt darüber hinaus eine Karosserie, Räder, ein Lenkrad etc. Das wiederum bezeichnet das KI-System, welches das Modell erst durch seine Schnittstellen, seine Benutzeroberfläche etc. &amp;quot;fahrtüchtig&amp;quot; und damit nutzbar macht.&amp;lt;/mark&amp;gt; Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen &amp;quot;Nutzer&amp;quot;) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder sich in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollen:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität), unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act trat am &#039;&#039;&#039;1. August 2024&#039;&#039;&#039; in Kraft und wird generell am &#039;&#039;&#039;2. August 2026&#039;&#039;&#039; anwendbar (Art 113 AI Act). Gestaffelt erlangen einige Bestimmungen jedoch bereits vorab oder danach Geltung:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab &#039;&#039;&#039;2. August 2025&#039;&#039;&#039;&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem &#039;&#039;&#039;2. August 2027&#039;&#039;&#039;&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 111 Abs 2 AI Act enthält dabei jedoch eine sog „grandfathering“-Klausel, nach welcher der AI Act für Betreiber von Hochrisiko-KI-Systemen, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, nur dann gilt, wenn diese Systeme danach in ihrer Konzeption erheblich verändert wurden.&amp;lt;ref&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 23, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Verpflichtung zur Maßnahmenergreifung gilt für Betreiber und Anbieter gleichermaßen und ist ferner unabhängig von der Risikoklasse der infragestehenden KI-Anwendung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Unter KI-Kompetenz versteht man grundsätzlich &amp;quot;die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.&amp;quot;&amp;lt;ref&amp;gt;Vgl die Definition in Art 3 Z 56 AI Act.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dies umfasst die notwendigen Kompetenzen, um fundierte Entscheidungen über KI-Systeme zu treffen, technische Elemente zu verstehen sowie korrekt anzuwenden, die Auswirkungen von KI-basierten Entscheidungen auf Betroffene zu verstehen und KI-generierte Ausgaben angemessen zu interpretieren.&amp;lt;ref name=&amp;quot;:1&amp;quot;&amp;gt;Vgl ErwGr 20 AI Act. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dazu gehört auch, den einschlägigen Akteuren der KI-Wertschöpfungskette jene erforderlichen Kenntnisse zu vermitteln, um die Einhaltung und Durchsetzung der Vorschriften des AI Act zu gewährleisten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Weitere Konkretisierungen oder zwingende Mindestvorgaben für die Sicherstellung der KI-Kompetenz enthält der AI Act allerdings nicht und betont sogar, dass die Konzepte der KI-Kompetenz in Bezug auf den jeweiligen Kontext unterschiedlich sein können.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:1&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Die EU-Kommission hat daher ein [https://digital-strategy.ec.europa.eu/de/library/living-repository-foster-learning-and-exchange-ai-literacy &amp;quot;Living Repository&amp;quot;] angelegt, in dem Unternehmen ihre Praktiken in Bezug auf KI-Kompetenz eingetragen haben. Das Repository wird laufend ergänzt, ist jedoch nicht rechtsverbindlich. Weiters bilden die darin enthaltenen Praktiken keine Garantie zur Compliance mit Art 4 AI Act, allerdings stellen sie eine gute Orientierung dar, welche Maßnahmen zur Sicherstellung von KI-Kompetenz in unterschiedlichen Branchen bereits ergriffen werden. Häufig genannte Praktiken umfassen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne eLearning-Plattformen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne Weiterbildungen und Trainingsprogramme,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Kenntnis-basierte Schulungen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Video-/Podcast-Reihen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;spielebasierte Trainings,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Erstellung von KI-Verhaltenskodizes und Risikobewertungssystemen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;eigene Chatbots zum Training im Umgang mit Sprachmodellen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Denkbar ist überdies die Teilnahme an externen Fortbildungen und Schulungen, die Entwicklung von internen Richtlinien (&amp;quot;KI-Guidelines&amp;quot;) oder die Schaffung von sog &amp;quot;KI-Beauftragten&amp;quot; in der Organisation. Ob die Schulungsmaßnahmen fortlaufend zu erfolgen haben, ist rechtlich nicht vorgeschrieben, wird allerdings anzunehmen sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Dieser Ansicht folgend: &#039;&#039;Siglmüller&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 4 KI-Kompetenz Rz 5.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Ebensowenig sind die genauen Inhalte der Kompetenzvermittlungsmaßnahmen definiert. Es kann jedenfalls davon ausgegangen werden, dass diese zielgruppengerecht und zugeschnitten auf unterschiedliche Bedürfnisse erfolgen sollten. Weiters werden sie sich bei manchen Branchen, KI-Einsatzgebieten oder Personengruppen nicht lediglich auf rechtliche oder technische Anforderungen beschränken, sondern ebenso soziale und ethische Komponenten umfassen. Bei der Entwicklung und Nutzung von GPAI-Modellen wird beispielsweise die Vermittlung von Kenntnissen im Zusammenhang mit Urheberrecht, Datenschutz, &amp;quot;Bias&amp;quot; (Verzerrungen) oder &amp;quot;Halluzinationen&amp;quot; (erfundene falsche Ausgaben) sinnvoll sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger,&#039;&#039; Wissenskultur im KI-Zeitalter – eine Auseinandersetzung mit der KI-Kompetenz nach Art 4 AI Act und ihren praktischen Implikationen, ZIIR 2025, 250.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die EU-Kommission hat darüber hinaus eine [https://digital-strategy.ec.europa.eu/de/faqs/ai-literacy-questions-answers &amp;quot;FAQ-Seite&amp;quot;] mit Fragen und Antworten zur KI-Kompetenz angelegt, um einen besseren Überblick über die Anforderungen zu geben.&amp;lt;/mark&amp;gt;    &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten, &amp;lt;mark&amp;gt;da sie besonders schädlich sind, enormes Missbrauchspotenzial aufweisen und im Widerspruch zu europäischen Grundrechten und Grundfreiheiten stehen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 28 AI Act.&amp;lt;/mark&amp;gt; MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt; (Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt; Folgende Praktiken sind davon umfasst: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Praktik&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Nicht erfasste Praktiken&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsgrundlage&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Unterschwellige Beeinflussung außerhalb des Bewusstseins oder manipulative/täuschende Techniken&#039;&#039;&#039;, wodurch die freie Entscheidungsfähigkeit von Personen beeinträchtigt wird und ein Schaden mit hinreichender Wahrscheinlichkeit eintritt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ableitung sensibler Informationen aus Gehirnen von Nutzern über Maschine-Gehirn-Schnittstellen&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 29 AI Act sowie Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 66.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Chatbots, die zur Selbstverletzung verleiten&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 87.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Unterschwellige visuelle oder auditive Reize bzw generelle sensorische Manipulation&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 65 und 68.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erlaubt ist hingegen der Einsatz eines KI-Systems, das personalisierte Empfehlungen auf der Grundlage transparenter Algorithmen und Nutzerpräferenzen verwendet, und sich nicht absichtlich manipulativer Techniken bedient.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 128.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit a&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Ausnutzen der Vulnerabilität/Schutzbedürftigkeit&#039;&#039;&#039; aufgrund des Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine KI-Begleit-App, die durch gewisse Sprachmuster und Verhaltensweisen gezielt emotionale Abhängigkeiten und ungesunde Bindungen bei älteren Menschen erzeugt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-gestütztes Spielzeug, das Kinder zu riskanten Herausforderungen ermutigt oder durch süchtig machende Techniken zu übermäßigem Spielen anregt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte &amp;quot;Grooming-Praktiken&amp;quot; (gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht), um Mädchen mit Behinderung im Internet anzusprechen und zu manipulieren&amp;lt;ref&amp;gt;Vgl Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 88 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Kinder beim Lernen einer Fremdsprache durch den Einsatz unterschwelliger Techniken unterstützen soll, sofern sie transparent arbeitet und die Nutzerautonomie wahrt.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Benommenheit und Ermüdung bei Fahrern erkennen und sie im Einklang mit den Sicherheitsvorschriften mit Warnmeldungen auf Ruhepausen hinweisen, gelten ebenso nicht als Ausnutzung von Vulnerabilitäten.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 130ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit b&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social scoring&#039;&#039;&#039; (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Verwendung eines KI-Systems zur Schätzung der Betrugswahrscheinlichkeit bei Empfängern von Haushaltszulagen durch das Sozialamt, das sich auf Merkmale stützt, die in sozialen Kontexten ohne offensichtlichen Zusammenhang mit oder Relevanz für die Bewertung von Betrug erhoben oder abgeleitet werden, wie zB ein Ehepartner mit einer bestimmten Staatsangehörigkeit oder ethnischen Herkunft, der Besitz eines Internetanschlusses, das Verhalten auf sozialen Plattformen oder die Leistung am Arbeitsplatz etc.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems durch eine öffentliche Stelle, um für die Früherkennung gefährdeter Kinder anhand von Kriterien wie der psychischen Gesundheit und Arbeitslosigkeit der Eltern, aber auch anhand von aus verschiedenen Kontexten abgeleiteten Informationen über das soziale Verhalten der Eltern Familienprofile zu erstellen. Auf der Grundlage der erzielten Bewertung werden Familien für Kontrollen ausgewählt und als „gefährdet“ geltende Kinder werden aus ihren Familien genommen, unter anderem auch in Fällen geringfügiger Übertretungen seitens der Eltern, wie zB gelegentlich verpasste Arzttermine oder verhängte Verkehrsstrafen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine Regierung führt ein umfassendes KI-gestütztes System ein, das die Bürgerinnen und Bürger auf der Grundlage ihres Verhaltens in verschiedenen Lebensbereichen wie sozialen Interaktionen, Online-Aktivitäten, Kaufgewohnheiten und Pünktlichkeit bei der Begleichung von Rechnungen überwacht und einstuft. Menschen mit einer niedrigeren Bewertung müssen damit rechnen, dass sie eingeschränkten Zugang zu öffentlichen Dienstleistungen erhalten, höhere Zinsen auf Kredite zahlen und auf Reisen und bei der Suche nach einer Wohnung oder sogar einem Arbeitsplatz Schwierigkeiten haben.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 166 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Bonitätsprüfung natürlicher Personen auf Basis persönlicher Merkmale wie dem Einkommen vor Vergabe eines Kredits.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basierte Erhebung von Geschwindigkeitsüberschreitungen oder hochriskantem Fahrverhalten, die zur Erhöhung der KFZ-Versicherungsprämien führen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte gezielte kommerzielle Werbung fällt nicht in den Anwendungsbereich, wenn sie auf relevanten Daten (z. B. Nutzerpräferenzen) beruht, im Einklang mit den Rechtsvorschriften der Union über Verbraucherschutz, Datenschutz und digitale Dienste erfolgt und nicht zu einer Schlechterstellung oder Benachteiligung führt, die in keinem angemessenen Verhältnis zur Tragweite des sozialen Verhaltens des Nutzers steht (z. B. ausbeuterische und unfaire differenzierte Preisgestaltung).&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 177.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit c&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Bewertung des Risikos, dass eine Person eine Straftat&#039;&#039;&#039; begeht (ausschließlich aufgrund von Profiling)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Eine Polizeidienststelle verwendet KI-gestützte Risikobewertungsinstrumente, um das Risiko zu bewerten, dass kleine Kinder und Jugendliche an „künftigen Gewalttaten und Eigentumsdelikten“ beteiligt sein werden. Das System bewertet Kinder auf der Grundlage ihrer Beziehungen zu anderen Menschen und deren vermeintlichen Risikoniveaus, dh es wird eventuell davon ausgegangen, dass bei Kindern ein höheres Risiko für die Begehung von Straftaten besteht, einfach weil sie mit einer anderen Person wie einem Geschwisterkind oder einem Freund verbunden sind, bei der eine hohe Risikobewertung vorliegt. Das Risikoniveau der Eltern kann sich ebenfalls auf das Risikoniveau eines Kindes auswirken.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 202.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Standortbezogene oder geodatenbasierte Vorhersagen oder ortsbezogene Verbrechensvorhersagen (zB KI-System zur Berechnung der Kriminalitätswahrscheinlichkeit in bestimmten Stadtgebieten oder von Schmuggelrouten)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Unterstützung der durch Menschen durchgeführten Bewertung, die sich auf objektive und überprüfbare Tatsachen stützt, die in Zusammenhang mit einer kriminellen Aktivität stehen (zB Profiling zur Vorhersage gefährlichen Verhaltens in einer Menschenmenge, KI-basiertes Profiling von Personen, gegen die bereits ein Verdacht besteht, der auf mehreren überprüfbaren, objektiven Tatsachen beruht).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basiertes Profiling in Bezug auf juristische Personen&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur individuellen Vorhersage von Ordnungswidrigkeiten (zB Bagatellverkehrsdelikte)&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 212 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit d&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erstellung/Erweiterung von &#039;&#039;&#039;Datenbanken&#039;&#039;&#039; zur Gesichtserkennung durch &#039;&#039;&#039;ungezieltes Auslesen von Gesichtsbildern&#039;&#039;&#039;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen für Gesichtserkennungssoftware sammelt Bilder von Gesichtern, die mit einem „automatisierten Bildausleser“, der das Internet durchsucht und Bilder mit menschlichen Gesichtern erkennt, aus sozialen Medien (zB Facebook, X) ausgelesen wurden. Der Bildausleser sammelt diese Bilder mit allen damit verbundenen Informationen (wie der Quelle des Bildes (URL), der Geolokalisierung und manchmal den Namen der einzelnen Personen). Die Gesichtsmerkmale werden dann aus den Bildern extrahiert und in mathematische Darstellungen umgewandelt, die für die Indexierung und den künftigen Vergleich mit Hashtags versehen werden. Wenn ein Nutzer das Bild einer Person in das KI-System hochlädt, wird dieses System bestimmen, ob dieses Bild mit einem Gesicht in der Datenbank übereinstimmt.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 232.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Das ungezielte Auslesen anderer biometrischer Daten als Gesichtsbilder (zB Stimmaufnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Gesichtsbilddatenbanken, die nicht für die Erkennung von Personen verwendet werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Gesichtsbilder aus dem Internet sammeln, um KI-Modelle zur Erzeugung neuer Bilder fiktiver Personen zu entwickeln&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit e&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Emotionserkennungssysteme&#039;&#039;&#039; am Arbeitsplatz oder in Bildungseinrichtungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das beispielsweise aus Gesten, Stirnrunzeln oder fehlendem Lächeln ableitet, dass ein Mitarbeiter unglücklich, traurig oder gegenüber den Kunden wütend ist&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Systeme, die aus Stimmführung oder Körpersprache ableiten, dass ein Schüler zornig und im Begriff ist, gewalttätig zu werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Emotionen aus Tastenanschlägen (Art des Tippens), Gesichtsausdrücken, Körperhaltungen oder Bewegungen ableitet, beruht auf biometrischen Daten und fällt in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die den emotionalen Ton in hybriden Arbeitsteams überwachen, indem sie Emotionen aus Stimm- und Bildaufnahmen hybrider Videokonferenzen erkennen und ableiten, was in Regel der Förderung des sozialen Bewusstseins, des Managements emotionaler Dynamik und der Konfliktverhütung dienen würde&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems bei Online-Prüfungen zur Erkennung von Emotionen wie Erregungs- und Angstzustände&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung zur Bewertung des Wohlbefindens, des Motivationsniveaus und der Arbeits- oder Lernzufriedenheit von Studierenden oder Arbeitnehmern.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der Einsatz von KI-Erkennungssystemen, um auf die Ermüdung eines Berufspiloten oder -fahrers zu schließen, ihn zu warnen und ihm zu empfehlen, zur Vermeidung von Unfällen Pausen einzulegen, da Emotionserkennung keine physischen Zustände wie Schmerzen oder Ermüdung einschließt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das aus schriftlichen Texten (Analysen von Inhalt und Stimmung) Emotionen ableitet, um den Stil oder den Ton eines bestimmten Artikels zu bestimmen, beruht nicht auf biometrischen Daten und fällt daher nicht in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Werden Emotionserkennungssysteme nur zu persönlichen Schulungszwecken eingesetzt, sind sie zulässig, sofern die Ergebnisse nicht Personen mit Personalverantwortung zur Verfügung gestellt werden und keine Auswirkungen auf das Arbeitsverhältnis haben&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die durch eine Bildungseinrichtung erfolgende Verwendung einer KI-gestützten Software zur Verfolgung der Augenbewegungen bei Online-Prüfungen Studierender, um den Fixierungspunkt und die Bewegung der Augen zu verfolgen (um beispielsweise zu erkennen, ob unerlaubtes Material verwendet wird), ist nicht verboten, da das System Emotionen weder erkennt noch ableitet&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung aus medizinischen Gründen zur Unterstützung von Arbeitnehmern oder Studierenden mit Autismus und zur Verbesserung der Barrierefreiheit für blinde oder gehörlose Menschen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit f&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Kategorisierung,&#039;&#039;&#039; Ableitung von sensiblen Daten (religiöse Weltanschauung, politische Einstellung)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Personen, die auf einer Plattform sozialer Medien aktiv sind, nach ihrer angenommenen politischen Ausrichtung kategorisiert, indem es die biometrischen Daten der von ihnen auf die Plattform hochgeladenen Fotos analysiert, um ihnen gezielte politische Nachrichten zu übermitteln&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;ein System zur biometrischen Kategorisierung, das für sich in Anspruch nimmt, die religiöse Ausrichtung einer Person aus ihren Tätowierungen oder ihrem Gesicht ableiten zu können.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 280 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die mit der Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze, auch zu Strafverfolgungszwecken, befasst sind (zB bei Verdacht auf Darstellungen sexuellen Kindesmissbrauchs)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;die Kategorisierung von Patienten, bei der Bilder nach ihrer Haut- oder Augenfarbe verwendet werden, für medizinische Diagnosen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 284 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit g&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Echtzeit-Fernidentifizierungssysteme&#039;&#039;&#039; in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die polizeiliche Verwendung von Systemen zur biometrischen Echtzeit-Fernidentifizierung zu dem Zweck, Ladendiebe zu identifizieren und ihre Gesichtsbilder mit Kriminaldatenbanken zu vergleichen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 328.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung von Echtzeit-Gesichtserkennungstechniken durch die Polizei nach einem schweren Terroranschlag auf einen Weihnachtsmarkt mit zwölf Toten, um den Täter zu identifizieren und festzustellen, wohin er flieht. In diesem Zusammenhang nutzen sie auch die Echtzeit-Gesichtserkennungstechnik des nahe gelegenen Bahnhofs und der Zielbahnhöfe der Züge, die kurz nach dem Angriff von dort abgehen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 354.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit h&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&amp;lt;br /&amp;gt;&lt;br /&gt;
Einige dieser Praktiken sind darüber hinaus bereits nach anderen Rechtsvorschriften verboten, so beispielsweise gewisse manipulative und täuschende Techniken als &amp;quot;dark patterns&amp;quot; nach dem [[Digital Services Act (DSA)|Digital Services Act]] (gilt nur für bestimmte Plattform-Anbieter) oder die Verarbeitung biometrischer Daten zur Identifizierung einer Person nach Art 9 Abs 1 DSGVO, sofern keine der in Abs 2 genannten Ausnahmen vorliegt. Gemäß der neuen Plattformarbeitsrichtlinie&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Richtlinie (EU) 2024/2831 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit, ABl L 11. 11. 2024.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;, die bis Dezember 2026 in nationales Recht umzusetzen ist, ist überdies der Einsatz von automatisierten Überwachungs- und Entscheidungssystemen zur Erfassung personenbezogener Daten über den emotionalen oder psychischen Zustand einer Person (Emotionserkennung) verboten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;MwN &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2024) Art 5 Rz 104.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act klassifiziert Hochrisiko-KI-Systeme in Art 6. Dabei kennt er zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige&amp;quot; Hochrisiko-KI-Systeme bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei folgenden Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder stellt selbst ein solches Produkt dar&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten: bspw biometrische Identifizierung, kritische Infrastrukturen, grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle, Justiz und demokratische Prozesse).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis einer Entscheidungsfindung, an der das System beteiligt ist, wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot; &amp;lt;mark&amp;gt;Als Profiling gilt dabei iSd Art 4 Abs 4 DSGVO jede automatisierte Verarbeitung personenbezogener Daten, die darin besteht, bestimmte persönliche Aspekte einer Person zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, Gesundheit, persönliche Vorlieben, Zuverlässigkeit, Verhalten etc. zu analysieren oder vorherzusagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Europäische Kommission hat im Rahmen von Public Consultations unter anderem auch Rückmeldungen zu Anforderungen an Hochrisiko-KI-Systeme eingeholt, die eine Grundlage für Leitlinien bilden sollen, welche im Februar 2026 veröffentlicht werden sollen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;European Commission, Commission launches public consultation on high-risk AI systems, https://digital-strategy.ec.europa.eu/en/news/commission-launches-public-consultation-high-risk-ai-systems (Stand 6.6.2025).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Pflichten für Betreiber von Hochrisiko-KI-Systemen&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Betreiberpflichten nach Art 26 AI Act&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis &amp;lt;mark&amp;gt;([https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#KI-Kompetenz/AI_literacy_(Art_4_AI_Act) &amp;quot;KI-Kompetenz&amp;quot;] nach Art 4&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 40. &amp;lt;/ref&amp;gt;)&amp;lt;/mark&amp;gt; verfügen und ihnen die erforderliche Unterstützung zukommen lassen. &lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von automatisiert erzeugten &#039;&#039;&#039;Protokollen&#039;&#039;&#039; &amp;lt;mark&amp;gt;für einen Zeitraum von zumindest 6 Monaten (wobei hier entgegenstehende datenschutzrechtliche Regelungen vorgehen würden&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 42.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;)&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, vor Verwendung oder Inbetriebnahme des Hochrisiko-KI-Systems am Arbeitsplatz. &amp;lt;mark&amp;gt;Dies umfasst sowohl den Einsatz von &amp;quot;eingebetteten&amp;quot; als auch &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Weiters sind die Mitwirkungspflichten des Betriebsrats zu berücksichtigen (vgl §§ 96 f ArbVG). Nicht umfasst sind wahrscheinlich Informationspflichten gegenüber Bewerbern, da diese tendenziell nicht unter den von dieser Bestimmung geforderten &amp;quot;Arbeitnehmer-Begriff&amp;quot; fallen&amp;lt;/mark&amp;gt;.&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet. &amp;lt;mark&amp;gt;Diese Bestimmung gilt lediglich für den Einsatz von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen nach Art 6 Abs 2 iVm Anhang III.Die danach mitzuteilende Information sollte die Zweckbestimmung und die Art der getroffenen Entscheidung beinhalten (vgl ErwGr 93) sowie - nach einer hier vertretenen Auffassung - eine vorab Information über das Recht auf Erklärung nach Art 86 AI Act, welches von KI-Entscheidungen Betroffenen das Recht zugesteht, unter gewissen Voraussetzungen vom Betreiber eine klare und aussagekräftige Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess sowie zu den wichtigsten Elementen der getroffenen Entscheidung zu erhalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe die entsprechende Argumentationslinie im Detail: &#039;&#039;Research Institute&#039;&#039;, Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025) 100 ff, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.  &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 27 Abs 4 macht überdies die Verzahnung der Grundrechte-Folgenabschätzung (GRFA) mit anderen Folgenabschätzungen deutlich und schreibt bspw vor, dass bei Vorliegen einer Datenschutz-Folgenabschätzung nach Art 35 DSGVO die GRFA diese ergänzen bzw in diese integriert werden solle.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Piltz/Zwerschke&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 27 Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme Rz 32.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Sowohl die Verpflichtungen nach Art 26 als auch die Durchführung einer GRFA nach Art 27 treffen den Betreiber unabhängig davon, ob jemand (bspw Betroffene) deren Einhaltung einfordern. Im Unterschied dazu enthält der AI Act in den Artt 85 ff sog &amp;quot;Betroffenenrechte&amp;quot;, die aktiv von betroffenen Personen geltend zu machen sind. Dazu zählt insbesondere das [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Recht auf Erklärung nach Art 86], welches das einzige Betroffenenrecht darstellt, das direkt gegen den Betreiber durchsetzbar ist.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführer oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn die genannten Personen ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen;&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt;&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das &#039;&#039;nicht&#039;&#039; als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird.&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter (Erstanbieter) nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat jedoch mit dem neuen Anbieter zusammenzuarbeiten, insb Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI Act muss beachtet werden, dass die Rollenverteilung eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters erfolgt, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden &amp;lt;mark&amp;gt;sowie den Anforderungen an die Barrierefreiheit genügen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots, &amp;lt;mark&amp;gt;Sprachassistenten, Social Bots)&amp;lt;/mark&amp;gt;, sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Pflicht kann entfallen, wenn die Interaktion mit dem KI-System aus Sicht einer angemessen informierten, aufmerksamen und verständigen Person offensichtlich ist oder beim Einsatz von KI-Systemen, die für die Strafverfolgung zugelassen sind.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 43.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
*&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 40.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Chatbots&#039;&#039;&#039; können durch einen textlichen Hinweis zu Beginn des Gesprächs oder ein dauerhaft angezeigtes grafisches Symbol vorgestellt werden.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Bei &#039;&#039;&#039;Voicebots&#039;&#039;&#039; kommt eine der Interaktion vorausgehende Ansage, welche auf den KI-Einsatz hinweist, in Betracht.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social Bots&#039;&#039;&#039; können eine Information vor und mit jeder Interaktion des Bots in sozialen Netzwerken erfordern, da das System stets mit einem neuen Personenkreis in Interaktion tritt (zB AI-Influencer).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Das KI-Büro hat am 5. November 2025 Arbeiten an einem Verhaltenskodex in Bezug auf die Kennzeichnung von KI-generierten Inhalten aufgenommen. Die entsprechenden Leitlinien werden in einem siebenmonatigen Prozess, der sich insbesondere durch die Einbindung von relevanten Stakeholdern und öffentliche Konsultationen auszeichnen soll, erarbeitet werden. Näheres unter: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Mögliche Methoden wären bspw Wasserzeichen, Metadatenidentifizierungen, Kryptografische Methoden (zB &amp;quot;Hashing&amp;quot;), Protokollierungsmethoden oder Fingerabdrücke.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 133 Satz 4 sowie mwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 84 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Denkbar ist bspw eine Umsetzung in Form eines sichtbaren Wasserzeichens, eines textlichen Hinweises, durch Hinzufügen von sog C2PA-Content Credentials&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Die C2PA („Coalition forContent Provenanceand Authenticity“) ist ein branchenübergreifendes Non-profit-Projekt, das die Entwicklung gemeinsamer technischer Standards zur Ermittlung der Herkunft von digitalen Inhalten zum Ziel hat. Siehe dazu https://c2pa.org/. So hat sich bspw LinkedIn bei der Erkennung KI-generierter Inhalte diesen Standards unterworfen: https://www.linkedin.com/help/linkedin/answer/a6282984. MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 150.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;oder bei Audioinhalten durch eine Ansage zu Beginn des Audioinhalts.&amp;lt;ref&amp;gt;&#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 148 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Verpflichtung entfällt, wenn die betreffenden Inhalte vor ihrer Veröffentlichung einer menschlichen oder redaktionellen Kontrolle unterzogen wurden und eine Person die redaktionelle Verantwortung dafür trägt. Da die Anforderungen an die menschliche bzw redaktionelle Kontrolle nicht konkretisiert werden, unterwerfen sich bspw im journalistischen Bereich zahlreiche Medien freiwilligen Leitlinien (so etwa die [https://www.blm.de/files/pdf2/ki-leitlinien.pdf Leitlinien des Medienrats der Bayerischen Landeszentrale für neue Medien (BLM) zum Einsatz von Künstlicher Intelligenz im Journalismus]).&amp;lt;ref&amp;gt;MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 163 f.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als &amp;quot;KI-Systeme mit minimalem Risiko&amp;quot; bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf den sprunghaften Durchbruch generativer KI-Modelle, die für viele verschiedene Zwecke eingesetzt werden können, in den Jahren 2022 und 2023 wurden unter Durchbrechung des bisherigen zweck- und risikoorientierten Regelungsansatzes im Entwurfsstadium des AI Act nachträglich Regeln für solche Modelle eingefügt. Ein GPAI-Modell (in früheren Entwurfsfassungen foundation model/Basismodell) ist dabei in Art 3 Z 63 AI Act definiert als ein KI-Modell, das&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;das eine erhebliche allgemeine Verwendbarkeit aufweist,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;In den von der EU-Kommission im Juli 2025 veröffentlichten Leitlinien zu GPAI-Modellen werden eine kumulierte Menge der für das Training verwendeten Berechnungen von mehr als 10&amp;lt;sup&amp;gt;23&amp;lt;/sup&amp;gt; FLOPs und die Fähigkeit, geschriebene oder gesprochene Sprache (aber auch Bilder oder Videos aus Text) zu generieren, als Anhaltspunkte für das Vorliegen eines GPAI-Modells angegeben, es sei denn, das Modell erfüllt die oben angegebenen Kriterien der Allgemeinheit nicht (zB weil es spezifisch nur für die Transkription von Sprache in Text trainiert wurde).&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 13ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Somit ist davon auszugehen, dass die üblichen [https://de.wikipedia.org/wiki/Large_Language_Model LLM]s, wie die GPT-Serie von OpenAI, die Gemini-Serie von Google oder die Claude-Serie von Anthropic als GPAI-Modelle im Sinne dieser Definition einzustufen sind.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Baustein/Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme in den risikobasierten Ansatz fallen (verbotene Systeme, Hochrisiko-KI-Systeme, Transparenzpflichten), unterliegen nur gewisse Modelle, nämlich GPAI-Modelle  einer Sonderregulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei wird binär zwischen GPAI-Modelle ohne und GPAI-Modelle mit systemischem Risiko unterschieden. &lt;br /&gt;
&lt;br /&gt;
Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act),&lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über Fähigkeiten mit hohem Wirkungsgrad verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; beträgt. Dies dürfte zurzeit nur auf GPT-4 und potentiell Varianten von Gemini zutreffen. Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act).&lt;br /&gt;
* ein solches Risiko kann von Amts wegen/aufgrund einer Warnung von der Kommission in einer Entscheidung festgestellt werden (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc) &lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden. &lt;br /&gt;
* Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
* eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
* eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
* mögliche systemische Risiken auf Unionsebene bewerten und mindern,&lt;br /&gt;
* einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
* ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten.&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung dieser Verordnung beizutragen sollen (Art 56 Abs 1 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die Praxisleitfäden sollen mindestens die in Art 53-55 AI Act vorgesehenen Pflichten abdecken, darunter (Art 56 Abs 2 AI Act)&lt;br /&gt;
&lt;br /&gt;
* Mittel, mit denen sichergestellt wird, dass die in Art 53 Abs 1 lit a und b AI Act genannten Informationen (technische Dokumentation des Modells; Information und Dokumentation für die Integrierung des Modells) vor dem Hintergrund der Marktentwicklungen und technologischen Entwicklungen auf dem neuesten Stand gehalten werden&lt;br /&gt;
* die angemessene Detailgenauigkeit bei der Zusammenfassung der für das Training verwendeten Inhalte&lt;br /&gt;
* die Ermittlung von Art und Wesen der systemischen Risiken auf Unionsebene&lt;br /&gt;
* die Maßnahmen, Verfahren und Modalitäten für die Bewertung und das Management der systemischen Risiken auf Unionsebene&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von KI-Modellen mit allgemeinem Verwendungszweck sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 65 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein erster Entwurf eines solchen Leitfadens, ausgearbeitet von internationalen Expert*innen, wurde im November 2024 von der Europäischen Kommission präsentiert.&amp;lt;ref&amp;gt;&#039;&#039;European Commission&#039;&#039;, First Draft of the General-Purpose AI Code of Practice published, written by independent experts, https://digital-strategy.ec.europa.eu/en/library/first-draft-general-purpose-ai-code-practice-published-written-independent-experts (Stand 14. 11. 2024).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Für den am 10. Juli 2025 veröffentlichten Praxisleitfaden hat die EU-Kommissionen eine allgemeine [https://digital-strategy.ec.europa.eu/de/faqs/questions-and-answers-code-practice-general-purpose-ai &amp;quot;FAQ-Sektion&amp;quot;] angelegt, um zusätzliche Informationen bereitzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt. &lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der AILD und PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Stand November 2025 wurde in Österreich noch keine Behörde als zuständige Marktüberwachungsbehörde eingerichtet oder benannt. Bereits mit 2. November 2024 sind jedoch einige Behörden und öffentliche Stellen im Grundrechtsbereich gemäß Art 77 Abs 2 mit Aufsichts- und Durchsetzungsbefugnissen für Grundrechte insb im Zusammenhang mit Hochrisiko-KI ausgestattet worden, darunter die Volksanwaltschaft, die Datenschutzbehörde, die Arbeiterkammer, die Gleichbehandlungskommission, die Behindertenanwaltschaft, die KommAustria uvm.&amp;lt;ref&amp;gt;Mehr dazu unter: https://www.digitalaustria.gv.at/themen/kuenstliche-intelligenz/behoerden-art77-ai-act.html.&amp;lt;/ref&amp;gt; Dabei treffen auch die (künftig) zuständige Marktüberwachungsbehörde umfassende Kooperationspflichten, wie etwa die Meldung schwerwiegender Grundrechtsvorfälle in diesem Kontext an die genannten Einrichtungen (vgl Art 73 Abs 7 und Art 79 Abs 2 AI Act).&amp;lt;ref&amp;gt;Vgl &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 103, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Dazu hat die Kommission entsprechende Leitlinien zu veröffentlichen, die sich gerade in Ausarbeitung befinden.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung im Einzelfall betroffen sind,&lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (&amp;lt;mark&amp;gt;Recht auf Erläuterung der Entscheidungsfindung im Einzelfall gemäß Art 86 Abs 1 AI Act oder auch gemeinhin als &#039;&#039;&#039;&amp;quot;Recht auf Erklärung&amp;quot;&#039;&#039;&#039; bezeichnet&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157; &#039;&#039;Poindl/Müller,&#039;&#039; Das Recht auf Erklärung im AI Act. Betroffenenrecht mit Potenzial oder Papiertiger?, VbR 2025, 40. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei ist es unerheblich, ob das KI-System die Entscheidung gänzlich autonom getroffen hat oder unterstützend beteiligt war, es darf lediglich keine untergeordnete Rolle im Entscheidungsprozess gespielt haben.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Steht das Recht auf Erklärung zu, hat die betroffene Person einerseits das Recht, eine Erklärung über die Rolle des KI-Systems im Entscheidungsprozess zu verlangen, worunter einerseits Informationen über die zentralen Aufgaben des Systems im Entscheidungsprozess fallen (zB Zielgruppenselektion, Datenanalyse, Vorgabe der Entscheidung usw.) und andererseits auch der Grad dessen Beteiligung (gering, mittel, hoch), was umgekehrt auch den Grad menschlicher Beteiligung an der Entscheidungsfindung erfordert. Weiters sind die wichtigsten Elemente der Entscheidung zu beauskunften, beispielsweise Eingabedaten, wesentliche Entscheidungsgründe, kontrafaktische Erklärungen (inwiefern hätten andere Parameter zu einer anderen Entscheidungen geführt), die Auswirkungen der Entscheidung, die Gewichtung der einzelnen Kriterien und die Verarbeitungslogik (Informationen über die grobe Funktionsweise des KI-Systems, keine komplette Offenlegung des algorithmischen Codes). Weiters muss die Erklärung präzise, korrekt, verständlich, nicht zu technisch (keine komplexen mathematischen Formeln), aber dennoch vollständig sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letzter Referenzpunkt ist stets, ob die betroffene Person auf Basis der erlangten Informationen weitere Rechte geltend machen kann, da das Recht auf Erklärung auch oft als &amp;quot;Türöffner&amp;quot; für die Geltendmachung weiterer Rechte dient (so wird bspw eine Klage wegen Diskriminierung in einem Entscheidungsprozess erst erhoben werden können, wenn die betroffene Person genügend Informationen hat, um die Diskriminierung darzulegen, bspw die Gewichtung von bestimmten persönlichen Merkmalen, die ausschlaggebend für die Entscheidung war).&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Es handelt sich somit um ein nachgelagertes bzw &#039;&#039;ex post&#039;&#039; Recht, das nicht nur globale, abstrakte Systemerklärungen erfordert, sondern auch lokale, einzelfallbezogene Auskünfte umfasst, damit die betroffene Person die Informationen wirksam nutzbar machen kann .&amp;lt;/mark&amp;gt; Das Recht auf Erklärung steht Betroffenen gegenüber Betreibern und nicht gegenüber Anbietern zu, wobei letztere wiederum Betreibern entsprechende Betriebsanleitungen bereitzustellen haben (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung gilt nicht, sofern Ausnahmen nach Unionsrecht oder nationalem Recht bestehen (Art 86 Abs 2). Zu denken wäre hier etwa an Beschränkungen der Informationspflicht aufgrund geschützter Betriebs- oder Geschäftsgeheimnisse, wobei diese nicht zu einer pauschalen Auskunftsverweigerung führen dürfen.&amp;lt;/mark&amp;gt; Art 86 Abs 1 gilt überdies nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung Subsidiarität] ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung ist immer dann relevant, wenn Unternehmen, Behörden etc. KI in Entscheidungsfindungsprozessen einsetzen, die Auswirkungen auf bestimmte Personen(-gruppen) haben. Zu denken ist etwa an KI-basierte Entscheidungen über die Vergabe von Krediten, über die Berücksichtigung einer Bewerbung, über die Höhe einer Versicherungsprämie oder personalisierte Werbeschaltungen auf Basis von Emotionserkennung.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zum Umgang mit dem Recht auf Erklärung in der Praxis hat das &#039;&#039;Research Institute&#039;&#039; im Auftrag des Bundesministeriums für Arbeit, Soziales, Gesundheit, Pflege und Konsumentenschutz Leitlinien entwickelt:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:f1685e43-21b8-48f3-9fe5-2c61898960ae/Final_Aufkl%C3%A4rung%204.0_Unternehmensleitfaden_April2025.pdf Leitfaden für Unternehmen] im Umgang mit Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:40ba630c-39af-4b8d-8768-a69192427b09/Final_Aufkl%C3%A4rung%204.0_Konsumentinnenleitfaden_April2025.pdf Leitfaden für Konsument:innen und ihre Interessenvertretungen] zur Durchsetzung ihrer Rechte&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf Theoretischer Grundlagenbericht] zur wissenschaftlichen Fundierung der ausgesprochenen Empfehlungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Grundlegende Überschneidungen zwischen dem AI Act und der Datenschutz-Grundverordnung (DSGVO)&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Da KI-Systeme bzw -Modelle häufig personenbezogene Daten verarbeiten - bspw im Rahmen des Trainings eines KI-Modells oder zur Entscheidungsunterstützung in Bezug auf konkrete Personen -, stellt sich unweigerlich die Frage nach dem Zusammenwirken des AI Act mit der DSGVO.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Der Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA) des LfDI Baden-Württemberg enthält eine Auswahl von Orientierungshilfen verschiedener Aufsichtsbehörden und Gremien zu den Schnittstellen von DSGVO und KI: https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0. MwN &#039;&#039;Holtz/Ledendal,&#039;&#039; AI Data Governance - Overlaps Between the AI Act and the GDPR (iE, 2026): https://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1996843&amp;amp;dswid=-4177 sowie der [https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/DE-Bridge-Blueprint-v.0.9.pdf &amp;quot;Bridge Blueprint&amp;quot;-Entwurf] zur einheitlichen Anwendung von Datenschutz- und KI-Regulierung des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI).&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letztere knüpft ihren Anwendungsbereich nämlich an die Verarbeitung personenbezogener Daten iSd Art 4 Abs 1 DSGVO, worunter alle Informationen zu verstehen sind, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Die DSGVO ist seit 2018 in Anwendung und verfolgt den Grundsatz, dass jegliche Verarbeitung personenbezogener Daten verboten ist, es sei denn, es liegt ein Erlaubnistatbestand nach Art 6 Abs 1 DSGVO vor. Für die Verarbeitung sog &amp;quot;sensibler Daten&amp;quot; nach Art 9 DSGVO (zB Gesundheitsdaten, die ethnische Herkunft, die religiöse Weltanschauung etc.) legt sie noch strengere Maßstäbe an. Damit verfolgt die DSGVO einen horizontalen sowie prinzipienbasierten Ansatz, wonach bei der Verarbeitung personenbezogener Daten bestimmte Anforderungen und Grundsätze einzuhalten sind, ungeachtet der verwendeten Technologie, des Sektors oder des Einsatzgebiets.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 32, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus orientiert sich die Verordnung daran, inwieweit eine bestimmte Datenverarbeitung ein Risiko für die Rechte und Freiheiten natürlicher Personen darstellt (&amp;quot;risikobasierter Ansatz&amp;quot;), wonach sich letztendlich die Strenge der von ihr vorgeschriebenen Verpflichtungen bemisst.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Der AI Act erkennt das Primat der DSGVO in Art 2 Abs 7 an und statuiert, dass er deren Anwendungsbereich unberührt lässt. Somit gehen im Falle der Verarbeitung personenbezogener Daten durch eine KI-Anwendung die Regelungen der DSGVO grundsätzlich vor, während der AI Act dem ergänzend eine produktsicherheitsrechtliche Komponente beifügt, die während der Entwicklung und des Einsatzes von KI zu beachten ist.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 33, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Überschneidungen beider Rechtsakte ergeben sich bspw, sobald ein KI-Modell mit personenbezogenen Daten &#039;&#039;&#039;trainiert&#039;&#039;&#039; werden soll. In diesem Fall braucht es eine Rechtsgrundlage nach Art 6 Abs 1 DSGVO (und ggf Art 9 DSGVO), wobei hier am ehesten die berechtigten Interessen des Verantwortlichen nach lit f leg cit infrage kommen. So hat sich bspw der Facebook-Mutterkonzern Meta auf berechtigte Interessen berufen, um sein Sprachmodell &amp;quot;LLaMA&amp;quot; hinter seiner &amp;quot;Meta AI&amp;quot; mit Nutzerdaten zu trainieren. Dagegen erhob die Verbraucherschutzzentrale NRW Antrag auf Erlass einer einstweiligen Verfügung, letztendlich entschied jedoch das OLG Köln in seinem Beschluss vom 23.05.2025 (15 UKl 2/25), dass sich Meta für das KI-Training mit Nutzerdaten auf berechtigte Interessen stützen könne.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://www.verbraucherzentrale.nrw/urteilsdatenbank/digitale-welt/olg-koeln-weist-eilantrag-der-verbraucherzentrale-nrw-gegen-meta-wegen-kitraining-zurueck-108065.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Umgekehrt ist laut Art 35 DSGVO immer dann eine Datenschutz-Folgenabschätzung durchzuführen, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat, insbesondere bei Verwendung neuer Technologien. Darunter fallen gemäß §2 Abs 2 Z 4 DSFA-V&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Verordnung der Datenschutzbehörde über Verarbeitungsvorgänge, für die eine Datenschutz-Folgenabschätzung durchzuführen ist (DSFA-V), BGBl. II Nr. 278/2018.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;insbesondere Datenverarbeitung unter Einsatz von künstlicher Intelligenz, welcher jedenfalls die Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung nach sich zieht. Somit löst auch der Einsatz von KI unter gewissen Voraussetzungen datenschutzrechtliche Pflichten aus.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: Digital Services Act (DSA) vs AI Act ===&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der DSA legt einheitliche Regeln für Vermittlungsdienste mit dem Ziel fest, ein vertrauenswürdiges, (rechts-)sicheres und vorhersehbares Online-Umfeld für Verbraucher und Unternehmen durch eine harmonisierte Plattformregulierung zu gewährleisten. Ebenso zielt das Regelwerk auf den Schutz sowie die Gewährleistung einer effektiven Grundrechtsausübung und normiert umfassende Verpflichtungen für Anbieter von Online-Diensten in Form eines abgestuften Regelungsansatzes, der die unterschiedlichen Compliance-Pflichten an die Art und Größe der jeweiligen Online-Dienste knüpft. Dabei kennt der DSA folgende Anbieterkategorien: Anbieter von allgemeinen Vermittlungsdiensten, Hostingdiensten, Online- sowie Transaktionsplattformen und sehr großen Online-Plattformen (VLOPs) und -Suchmaschinen (VLOSEs). Überschneidungen mit dem AI Act können sich auf zweierlei Weise ergeben: Einerseits können KI-Anwendungen zur Generierung oder Manipulation von Inhalten verwendet werden, die dann über Vermittlungsdienste geteilt werden. Andererseits können KI-Systeme das Kernangebot des Diensteanbieters ausmachen, in der Inhaltsmoderation eingesetzt werden oder Produkt- bzw Service-Empfehlungen auf Basis von Nutzerverhalten (&amp;quot;Empfehlungsalgorithmen&amp;quot;) schalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 48, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Allgemeine Synergien sind dem [[Digital Services Act (DSA)|Eintrag über den DSA]] zu entnehmen.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
* Weiters kann es bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act in Bezug auf die notwendige Risikoanalyse kommen. &amp;lt;mark&amp;gt;So fordern die Artikel 34 und 35 DSA die Analyse jener potenzieller systemischer Risiken, die sich durch das Design, die Funktion oder die Nutzung ihrer Services ergeben, insbesondere im Zusammenhang mit algorithmischen Systemen oder Systemen zur Inhaltsmoderation. Demgegenüber legt der AI Act in Art 17 die Verpflichtung für Anbieter von Hochrisiko-KI-Systemen zur Etablierung eines Risikomanagementsystems gemäß Art 9 AI Act fest und sieht spezielle Anforderungen für Anbieter von GPAI-Modellen mit systemischem Risiko vor (Art 55 Abs 1 lit b AI Act).&amp;lt;/mark&amp;gt; Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Im Fall von Anbietern von Hochrisiko-KI-Systemen sieht der AI Act sogar explizit die Möglichkeit vor, Risikomanagementprozesse nach anderen unionsrechtlichen Bestimmungen mit jenen nach dem AI Act zu kombinieren (vgl Art 9 Abs 10 AI Act).&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 49, &amp;lt;nowiki&amp;gt;https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Art 86 AI Act normierte Recht auf Erläuterung] besteht potentiell eine Subsidiarität gegenüber anderen Auskunftsansprüchen, insb der Auskunftspflicht nach Art 15 Abs 1 lit h DSGVO iVm Art 22 DSGVO. &amp;lt;mark&amp;gt;Demnach steht Personen, die von einer automatisierten Entscheidungsfindung im Einzelfall einschließlich Profiling betroffen sind, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie ähnlich erheblich beeinträchtigt, das Recht zu, neben allgemeinen Informationen über die Verarbeitung ihrer personenbezogenen Daten aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und Auswirkungen einer derartigen Verarbeitung zu verlangen. Inhaltlich&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;richtet sich der Auskunftsanspruch nach Art 15 Abs 1 lit h DSGVO gemäß rezenter EuGH-Judikatur insb auf die Erläuterung des Verfahrens und der Grundsätze, die bei der automatisierten Verarbeitung der personenbezogenen Daten der betroffenen Person zur Anwendung kamen und zu dem bestimmten Ergebnis geführt haben.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117, Rz 58. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Frage nach einer potenziellen Subsidiarität von Art 86 AI Act gegenüber den entsprechenden datenschutzrechtlichen Vorschriften hängt von unterschiedlichen Fallszenarien ab, in denen die jeweils verwendeten Technologien und verarbeiteten Datenkategorien zu unterschiedlichen Ergebnissen führen können:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 15 Abs 1 lit h iVm Art 22 DSGVO&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsfolge&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Hochrisiko-KI-Einsatz in Entscheidungsfindungsprozessen, in denen entweder keine personenbezogenen Daten gemäß Art 4 Z 1 DSGVO verarbeitet werden (zB Verarbeitung lediglich aggregierter Daten) oder keine vollautomatisierte Entscheidung iSd Art 22 DSGVO getroffen wird (etwa weil ein Mensch maßgeblich an der Entscheidungsfindung beteiligt ist)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Das Recht auf Erklärung steht vollumfänglich wie in Art 86 Abs 1 dargelegt zu (bei Vorliegen der übrigen Voraussetzungen). Der betroffenen Person sind somit klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess und zu den wichtigsten Elementen der getroffenen Entscheidung zu übermitteln, wobei die Erklärung einzelfallbezogen und auf das konkrete Ergebnis gerichtet sein muss. Der Anwendungsbereich von Art 15 (Abs 1 lit h iVm Art 22) DSGVO ist hingegen nicht eröffnet. Das Recht, die Entscheidung anzufechten, steht - zumindest gemäß AI Act - nicht zu.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Es findet eine vollautomatisierte Entscheidungsfindung auf Basis der Verarbeitung personenbezogener Daten statt, allerdings ohne Beteiligung eines Hochrisiko-KI-Systems iSd Art 6 Abs 2 iVm Anhang III AI Act (bspw wird die Entscheidung durch einen herkömmlichen Algorithmus getroffen, der Anforderungen an ein KI-System nach Art 3 Z 1 AI Act nicht erfüllt oder das KI-System fällt nicht in den Hochrisiko-KI-Bereich)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Auskunftsanspruch gemäß Art 15 (Abs 1 lit h iVm Art 22) DSGVO steht bei Vorliegen der übrigen Voraussetzungen zu, während das Recht auf Erklärung nach Art 86 AI Act keine Anwendung findet. Es sind der betroffenen Person somit Informationen über die involvierte Logik, Tragweite und Auswirkungen der Entscheidung zu übermitteln, wobei Informationen über die Rolle des eingesetzten Systems nicht darunter fallen. Im Unterschied zu Art 86 AI Act ist in Bezug auf Art 15 Abs 1 lit h DSGVO jedoch noch unklar, ob auch eine Verpflichtung zu einer einzelfallbezogenen Begründung der konkret erzielten Ergebnisse besteht, die über eine abstrakte/allgemeine Erklärung hinausgeht.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl etwa das EuGH-Urteil in der RS Dun &amp;amp; Bradstreet, welches stärker auf das lokale Element, dh die Einzelentscheidung, abzustellen scheint (EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117). MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 71, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Art 22 Abs 3 DSGVO enthält jedoch im Gegensatz zum AI Act das Recht, die Entscheidung anzufechten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Verarbeitung personenbezogener Daten im Rahmen der Entscheidungsfindung, Einsatz eines Hochrisiko-KI-Systems, vollautomatisierte Entscheidungsfindung&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Anspruch nach Art 86 AI Act tritt ergänzend zu jenem nach der DSGVO hinzu und richtet sich auf jene Informationen, die nach Art 15 DSGVO nicht zu beauskunften sind (bspw die Rolle des KI-Systems im Entscheidungsprozess sowie jedenfalls einzelfallbezogene, lokale Erklärungen). Es handelt sich somit um eine sog &amp;quot;Lückenfüller-Position&amp;quot; von Art 86 AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Ansicht folgend und mwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 96 ff, &amp;lt;nowiki&amp;gt;https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;mark&amp;gt;In der Regel werden Betroffene in der Praxis wohl beide Ansprüche gleichzeitig geltend machen. Dies ist allerdings nur möglich, sofern beide Ansprüche auch gegenüber der selben Person bzw Einrichtung geltend zu machen sind. Denn während das Recht auf Erklärung nach Art 86 AI Act gegen den Betreiber des KI-Systems zusteht, ist der Auskunftsanspruch gemäß Art 15 Abs 1 lit h DSGVO gegen jene Person oder Stelle zu richten, welche die Entscheidung getroffen hat (welche zwar meist aber nicht zwangsläufig mit der Person des datenschutzrechtlich Verantwortlichen iSd Art 4 Z 7 DSGVO ident sein wird&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Argumentation folgend: &#039;&#039;Ziegenhorn,&#039;&#039; Wer ist Adressat des Art. 22 DSGVO? Zur Abgrenzung des Entscheiders vom Verantwortlichen, CR 2024, 586.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;). Die unterschiedlichen Rollen nach AI Act und DSGVO können somit zusammenfallen, müssen dies allerdings nicht, wodurch sich unterschiedliche Verpflichtungen für die beteiligten Akteure ergeben können.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== Produkthaftungsrichtlinie neu und Vorschlag für eine AI Liability Directive [zurückgezogen] ===&lt;br /&gt;
&lt;br /&gt;
* Die Produkthaftungsrichtlinie neu (PHRL neu) und insbesondere &amp;lt;mark&amp;gt;der (zurückgezogene)&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Commission work programme 2025, (11.2.2025) COM(2025) 45 final, 26.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Vorschlag für eine&amp;lt;/mark&amp;gt; AI Liability Directive (AILD) nehmen direkt auf den AI Act Bezug und verweisen bei der Begriffsverwendung häufig auf diesen. Die AILD kann somit nicht ohne den Kontext des AI Act verstanden werden. So sollten die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD bilden ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]). &lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act überträgt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Begleit- bzw Durchführungsgesetz, das die Sanktionen konkretisiert.  &amp;lt;mark&amp;gt;Auch die notifizierende(n) Behörde(n) und die Marktüberwachungsbehörde(n) (Art 70 AI Act) wurden in Österreich noch nicht benannt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 5: Transkriptionstool im Rahmen der Rechtspflege&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|&amp;lt;mark&amp;gt;Im Rahmen des Verfassens von Urteilen oder Protokollen wird das gesprochene Wort (Diktat des Entscheidungsorgans) digital aufgezeichnet und anschließend transkribiert. Das System ist in der Lage, mithilfe KI-gestützter Spracherkennung die jeweils Sprechenden (Speaker Diarisation) sowie juristische Begriffe und Redewendungen zu erkennen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Transkriptionssoftware liegt ein Sprachmodell (LLM) zugrunde, das auf maschinellem Lernen basiert. Dieses wird durch ein User-Interface praktisch nutzbar gemacht und stellt somit ein KI-System iSd AI Act dar.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&amp;lt;mark&amp;gt;Der Einsatz von KI in der Rechtspflege zu gewissen Zwecken kann in den Hochrisiko-KI-Bereich gemäß Art 6 Abs 2 iVm Anhang III Nr 8 lit a AI Act fallen. Solche Systeme sind jedoch nicht als hochriskant einzustufen, sofern sie für rein begleitende administrative Tätigkeiten bestimmt sind, worunter jedenfalls Spracherkennungsprogramme für das Diktieren von Entscheidungen fallen können (ErwGr 61). In einem nächsten Schritt ist die Ausnahmeregelung des Art 6 Abs 3 AI Act zu prüfen, wonach das System höchstwahrscheinlich gemäß lit a leg cit aus dem Hochrisiko-KI-Bereich ausgenommen ist, da es rein für Protokollierungszwecke eingesetzt wird und damit nur eine eng gefasste Verfahrensaufgabe übernimmt. Ebenso ist denkbar, gemäß lit d leg cit aus dem Hochrisiko-KI-Bereich ausgenommen zu sein, sofern das System lediglich eine vorbereitende Aufgabe für die Urteilserstellung übernimmt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Bejaht man hingegen das Vorliegen von Hochrisiko-KI, so treffen deren Anbieter die Pflichten der Art 8 ff AI Act und den Betreiber insbesondere die Pflichten nach Art 26 und 27 AI Act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Sofern es sich um ein KI-Modell mit allgemeinem Verwendungszweck (mit systemischem Risiko) handelt, treffen den Anbieter diesbezüglich Verpflichtungen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Unabhängig von der Risikoeinstufung des Modells bzw Systems sind darüber hinaus die Transparenzpflichten nach Art 50 AI Act zu beachten sowie ein ausreichendes Maß an KI-Kompetenz unter den Beschäftigten, die mit dem Transkriptionstool arbeiten, herzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 6: KI-System zur Filterung und Priorisierung von Bewerbungen&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Sachverhalt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen möchte eine neue Stelle besetzen und erhält unzählige Bewerbungen. Daher entschließt es sich, ein KI-basiertes System einzusetzen, das Bewerbungen filtert und mit einem Einstufungswert versieht, wodurch die Bewerbungen priorisiert werden. Die zuständigen HR-Mitarbeiter*innen weichen nicht mehr von dem Wert ab und vergeben die Stelle schließlich an jene Person, die den höchsten Einstufungswert erhalten hat.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!&amp;lt;mark&amp;gt;Einordnung AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Sofern es sich bei der Anwendung um ein KI-System nach Art 3 Z 1 AI Act handelt, ist der Anwendungsbereich des AI Act grundsätzlich eröffnet. Das Unternehmen ist jedenfalls als dessen Betreiber zu qualifizieren, da es das System in eigener Verantwortung zu beruflichen Zwecken einsetzt. Sofern es das KI-System auch selbst entwickelt / entwickeln lässt und es unter eigener Marke bzw eigenem Namen in Betrieb nimmt, ist es sogar Anbieter.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]].&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Darüber hinaus stellt das System ein &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System nach Art 6 Abs 2 iVm Anhang III Punkt 4a AI Act dar, da es bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet wird, um Bewerbungen zu filtern und Bewerber zu bewerten. Eine Ausnahme nach Art 6 Abs 3 AI Act vom Hochrisiko-KI-Bereich liegt nicht vor, da das KI-System das Ergebnis der Entscheidungsfindung wesentlich beeinflusst (von dem KI-generierten Eignungswert wird nicht mehr abgewichen). Je nach Rolle treffen das Unternehmen nun weitereichende Verpflichtungen. In den meisten Fällen wird das Unternehmen wohl als Betreiber zu klassifizieren sein, weshalb es unter anderem die Betreiberpflichten nach Art 26 AI Act zu erfüllen und unter gewissen Voraussetzungen eine Grundrechte-Folgenabschätzung nach Art 27 AI Act durchzuführen hat. Art 26 Abs 7 sieht grundsätzlich auch die spezielle Betreiberpflicht vor, vor Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz die Arbeitnehmervertreter und betroffenen Arbeitnehmer über den KI-Einsatz zu informieren. Inwieweit diese Verpflichtung auch gegenüber Bewerbern gilt, die streng genommen (noch) keine Arbeitnehmer sind, ist fraglich und wird wohl zu verneinen sind. Diese vermeintliche Rechtsschutzlücke wird jedoch ohnehin wieder durch die Verpflichtung gemäß Art 26 Abs 11 AI Act ausgeglichen, von Hochrisiko-KI-Entscheidungen betroffene Personen über diesen KI-Einsatz zu informieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= &amp;lt;mark&amp;gt;Digitaler Omnibus&amp;lt;/mark&amp;gt; =&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 19. November 2025 stellte die Europäische Kommission das sogenannte &#039;&#039;&#039;„Digital Omnibus Package“&#039;&#039;&#039; vor, ein Legislativpaket mit dem Ziel, den digitalen Rechtsrahmen der EU zu vereinfachen.&amp;lt;ref name=&amp;quot;:2&amp;quot;&amp;gt;Vgl https://ec.europa.eu/commission/presscorner/detail/de/ip_25_2718. &amp;lt;/ref&amp;gt; Ziel der Maßnahme ist, Verwaltungs- und Umsetzungskosten zu senken, Rechtsklarheit zu erhöhen und insbesondere kleine und mittlere Unternehmen (KMU) zu entlasten, da Unternehmen zunehmend Schwierigkeiten bei der Umsetzung und Koordination von Vorgaben wie etwa dem AI Act sehen. Das Paket umfasst Änderungen und Anpassungen unterschiedlicher Rechtsrahmen, so auch einige Bestimmungen des AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Inhaltliche Änderungen betreffen einerseits die Verpflichtung zur Sicherstellung von KI-Kompetenz (Art 4), welche nunmehr nicht Unternehmen bzw. Einrichtungen selbst treffen soll, sondern die Kommission und die Mitgliedstaaten sind dazu angehalten, Anbieter und Betreiber zur Sicherstellung eines angemessenen Maßes an KI-Kompetenz zu unterstützen. Ebenso stellt die Kommission eine Verzögerung der Anwendbarkeit der Hochrisiko-KI-Bestimmungen in Aussicht, welche mit 2. August 2026 bzw 2. August 2027 Anwendung erlangen sollten. Grund ist das Fehlen von entsprechenden Standards, die eigentlich bis August 2025 zu setzen waren und ohne die laut Kommission die Einhaltung der entsprechenden AI Act-Bestimmungen nicht möglich sei. Die Anwendbarkeit der Hochrisiko-KI-Bestimmungen soll sich um bis zu maximal 16 Monate verzögern, wobei die Vorschriften Geltung erlangen, sobald die Kommission die Verfügbarkeit der erforderlichen Standards und Unterstützungsinstrumente bestätigt.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:2&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus enthält der Vorschlag einen neuen Art 4a, der die Verarbeitung sensibler personenbezogener Daten zur Erkennung und Minderung von Bias unter gewissen Voraussetzungen ermöglicht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Kommissionsleitlinien und sonstige Materialen/Verhaltenskodizes&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zur Definition eines Systems der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 6. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118628&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 4. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118661&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Living Repository zur Förderung des Lernens und des Austausches über KI-Kompetenz vom 04. Februar 2025 (mit Update von April 2025): https://ec.europa.eu/newsroom/dae/redirection/document/112203&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Verhaltenskodex für KI-Modelle mit allgemeinem Verwendungszweck (GPAI Modelle) vom 10. Juli 2025:&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Transparenz: https://ec.europa.eu/newsroom/dae/redirection/document/118120&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Urheberrecht: https://ec.europa.eu/newsroom/dae/redirection/document/118115&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Sicherheit: https://ec.europa.eu/newsroom/dae/redirection/document/118119&amp;lt;/mark&amp;gt;  &lt;br /&gt;
*&amp;lt;mark&amp;gt;Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act vom 18. Juli 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118340&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;Leitlinien und Meldevorlagen zur Meldung schwerwiegender KI-Vorfälle gemäß Art 73 AI Act (&#039;&#039;Entwurf, noch in Ausarbeitung&#039;&#039;): https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; AI Act Service Desk. Frequently Asked Questions (FAQs): https://ai-act-service-desk.ec.europa.eu/en/faq.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act)&amp;lt;mark&amp;gt;&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024) &amp;lt;mark&amp;gt;(2. Auflage 2026, iE)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schefzig/Kilian,&#039;&#039; BeckOK KI-Recht&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Hochrangige Expertengruppe für Künstliche Intelligenz,&#039;&#039; Ethik-Leitlinien für eine vertrauenswürdige KI (2019), https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425&amp;lt;/mark&amp;gt;&lt;br /&gt;
* [https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0 Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA)]&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4295</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4295"/>
		<updated>2025-11-25T21:42:29Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* GPAI-Modelle (Art 51 ff AI Act) */ Definition GPAI-Modell inkl. Leitlinien&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. Februar 2025 (schrittweise)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen von KI-Systemen &lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD, &amp;lt;mark&amp;gt;von der Kommission zurückgezogen&amp;lt;/mark&amp;gt;)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modelle (general purpose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB Verarbeitung zur Vermeidung von Verzerrungen, Art 10), regulatory sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (zB Anbieter- und Betreiberpflichten, Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz (eingeschränkt); reine Forschungszwecke &lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) gelten seit 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (zB Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|Gewährleistung von Transparenz und Verantwortlichkeit&lt;br /&gt;
|Pflichten für Betreiber (professionelle Nutzer*innen) und Anbieter&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (zB Chatbots, Deepfakes)&lt;br /&gt;
|Informationspflichten nach der DSGVO&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
&amp;lt;mark&amp;gt;Der AI Act ist die erste EU-weite, sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) und&amp;lt;/mark&amp;gt; folgt dabei primär einem produktsicherheitsrechtlichem Ansatz, dessen vorrangiges Regulierungsziel die Sicherheit von KI-Systemen und Modellen ist. &amp;lt;mark&amp;gt;Damit ist er Teil des sog [https://single-market-economy.ec.europa.eu/single-market/goods/new-legislative-framework_en?prefLang=de &amp;quot;New Legislative Framework&amp;quot;] (NLF), einem unionsrechtlichen Maßnahmenpaket zur Produktregulierung, das auf die Verbesserung der Marktüberwachung abzielt und sich durch einheitliche Kernelemente auszeichnet (zB Konformitätsbewertungsverfahren, Selbstregulierung, Standards und einheitliche Anforderungen). Im Rahmen des Gesetzgebungsprozesses wurde der Rechtsakt - insbesondere auf Bestreben des Europäischen Parlaments - um menschenrechtliche Aspekte und Betroffenenrechte erweitert, weshalb der AI Act mittlerweile deutlich über reines Produktsicherheitsrecht hinausgeht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modelle&#039;&#039;&#039; bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot;.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei handelt es sich um &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;ableitet&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot;&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe Art 3 Z 1 AI Act. Hervorhebungen nicht im Original. &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;abzuleiten&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Hingegen soll sich nach ErwGr 12 der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen [...]&amp;quot;, womit auf eine Abgrenzung von KI von herkömmlichen Softwarelösungen und Programmierungsansätzen abgezielt wird.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zusammenfassend möchte der EU-Gesetzgeber mit dieser Definition einerseits Rechtssicherheit schaffen, allerdings immer noch Raum für technologischen Fortschritt lassen, um den Anwendungsbereich des AI Act nicht von Vornherein vor potenziellen künftigen technologischen Entwicklungen zu verschließen.&amp;lt;/mark&amp;gt; Dennoch wurde die Definition als zu vage und unbestimmt empfunden. So wurden diverse Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Um den Begriff des KI-Systems also zu konkretisieren und Unsicherheiten zu beseitigen, sollte die Kommission gemäß Art 96 Abs 1 lit f AI Act Leitlinien vorlegen, und damit eine einheitliche Anwendung des Regelwerks fördern sowie Rechtsicherheit gewährleisten&amp;lt;/mark&amp;gt;.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle, &amp;lt;mark&amp;gt;einfache Datenverarbeitungssysteme, auf klassische Heuristik gestützte Systeme, einfache Vorhersagesysteme etc.&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Eine Positiv-Liste, welche Systeme jedenfalls unter den KI-Begriff fallen, enthalten die Leitlinien allerdings nicht. Sie orientieren sich vielmehr an den 7 Kernelementen der KI-Definition gemäß Art 3 Z 1 AI Act. Es wird überdies betont, dass nicht alle Elemente kontinuierlich in den beiden Hauptphasen des Lebenszyklus von KI (&amp;quot;building phase&amp;quot; / &amp;quot;pre-deployment&amp;quot; oder &amp;quot;use phase&amp;quot; / &amp;quot;post-deployment&amp;quot;) vorhanden sein müssen und, dass sich die Leitlinien kontinuierlich weiterentwickeln sollen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Folgende Konkretisierungen der KI-Definition und Beispiele sind den Leitlinien zu entnehmen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Elemente der KI-Definition&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Erläuterungen in den Leitlinien der EU-Kommission&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Maschinengestütztes System&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;KI benötigt Hardware- und Softwarekomponenten&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB eine Hardwareinfrastruktur wie processing units, Speicher, Input/Output-Schnittstellen und Software (Code, Programme etc.)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;autonomer Betrieb (in unterschiedlichem Grade)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erfordert einen gewissen Grad an Unabhängigkeit von menschlichem Eingreifen, wobei Systeme, die vollständig manuelle menschliche Interaktion erfordern, nicht darunter fallen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Umfasst sind Systeme, die zwar einen manuellen Input erfordern, aber von selbst einen Output generieren (zB Chatbots)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anpassungsfähigkeit nach Betriebsaufnahme (optional)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Selbstlernfähigkeiten (nicht zwingend erforderlich); darunter versteht man, ob sich das Verhalten des Systems während seiner Verwendung anpassen oder verändern kann (zB automatisches Lernen, wie Muster oder Beziehungen zwischen Daten erkannt werden können).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungsfähigkeit&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Inferenz, Schlüsseleigenschaft; dient der Abgrenzung von KI-Systemen von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen. Nicht umfasst sind hingegen Systeme, die nur von Menschen programmierten Regeln folgen und automatisiert Operationen ausführen. Die Ableitungsfähigkeit bedeutet daher die Erlernung allgemeiner Konzepte statt fester, vorprogrammierter Regeln.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Bsp: maschinelles Lernen, logik- und wissensgestützte Systeme (Schlussfolgerungen mittels Deduktion oder Induktion)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitung aus Eingaben für implizite oder explizite Ziele&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungen müssen nach entweder:&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;expliziten Zielen (klar definierte, direkt in den Code programmierte Ziele, Optimierung von Kostenfunktionen, Wahrscheinlichkeitsberechnung) oder&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;impliziten Zielen (Ableitung des Ziels aus dem Verhalten oder den dahinterstehenden Annahmen des Systems; bspw Trainingsdaten oder Interaktion des Systems mit Umwelt) erfolgen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erzeugung von Ausgaben&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ausgabe-Arten umfassen unter anderem&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Vorhersagen (Schätzungen unbekannter Werte basierend auf komplexen Datenmustern)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Inhalte (Texte, Bilder, Videos oder Musik)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Empfehlungen (Vorschläge für Maßnahmen, Produkte oder Dienstleistungen, die hochgradig personalisiert sind und Massendaten nutzen).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Entscheidungen (Vollautomatisierte Schlussfolgerungen oder Auswahlentscheidungen, die Prozesse automatisieren, die üblicherweise menschlichem Urteilsvermögen vorbehalten sind)&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;zB die generierten Inhalte von Chatbots, Produktvorschläge, Echtzeit-Vorhersagen, Auswahlentscheidungen&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Beeinflussung physischer oder virtueller Umgebungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Frage, ob das System einen aktiven Einfluss auf die Umgebungen hat, in denen es eingesetzt wird, sei es auf materielle physische Objekte oder auf digitale Räume&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB Roboterarm, Software-Ökosysteme, Datenströme&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}  &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI-Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit aus, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). &amp;lt;mark&amp;gt;Man kann hier den Vergleich zu einem KFZ ziehen, wobei das KI-Modell den Motor darstellt, der die eigentliche &amp;quot;Arbeit&amp;quot; leistet. Um jedoch fahrtüchtig zu sein, bedarf es nicht nur eines Motors, sondern das Fahrzeug benötigt darüber hinaus eine Karosserie, Räder, ein Lenkrad etc. Das wiederum bezeichnet das KI-System, welches das Modell erst durch seine Schnittstellen, seine Benutzeroberfläche etc. &amp;quot;fahrtüchtig&amp;quot; und damit nutzbar macht.&amp;lt;/mark&amp;gt; Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen &amp;quot;Nutzer&amp;quot;) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder sich in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollen:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität), unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act trat am &#039;&#039;&#039;1. August 2024&#039;&#039;&#039; in Kraft und wird generell am &#039;&#039;&#039;2. August 2026&#039;&#039;&#039; anwendbar (Art 113 AI Act). Gestaffelt erlangen einige Bestimmungen jedoch bereits vorab oder danach Geltung:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab &#039;&#039;&#039;2. August 2025&#039;&#039;&#039;&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem &#039;&#039;&#039;2. August 2027&#039;&#039;&#039;&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 111 Abs 2 AI Act enthält dabei jedoch eine sog „grandfathering“-Klausel, nach welcher der AI Act für Betreiber von Hochrisiko-KI-Systemen, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, nur dann gilt, wenn diese Systeme danach in ihrer Konzeption erheblich verändert wurden.&amp;lt;ref&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 23, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Verpflichtung zur Maßnahmenergreifung gilt für Betreiber und Anbieter gleichermaßen und ist ferner unabhängig von der Risikoklasse der infragestehenden KI-Anwendung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Unter KI-Kompetenz versteht man grundsätzlich &amp;quot;die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.&amp;quot;&amp;lt;ref&amp;gt;Vgl die Definition in Art 3 Z 56 AI Act.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dies umfasst die notwendigen Kompetenzen, um fundierte Entscheidungen über KI-Systeme zu treffen, technische Elemente zu verstehen sowie korrekt anzuwenden, die Auswirkungen von KI-basierten Entscheidungen auf Betroffene zu verstehen und KI-generierte Ausgaben angemessen zu interpretieren.&amp;lt;ref name=&amp;quot;:1&amp;quot;&amp;gt;Vgl ErwGr 20 AI Act. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dazu gehört auch, den einschlägigen Akteuren der KI-Wertschöpfungskette jene erforderlichen Kenntnisse zu vermitteln, um die Einhaltung und Durchsetzung der Vorschriften des AI Act zu gewährleisten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Weitere Konkretisierungen oder zwingende Mindestvorgaben für die Sicherstellung der KI-Kompetenz enthält der AI Act allerdings nicht und betont sogar, dass die Konzepte der KI-Kompetenz in Bezug auf den jeweiligen Kontext unterschiedlich sein können.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:1&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Die EU-Kommission hat daher ein [https://digital-strategy.ec.europa.eu/de/library/living-repository-foster-learning-and-exchange-ai-literacy &amp;quot;Living Repository&amp;quot;] angelegt, in dem Unternehmen ihre Praktiken in Bezug auf KI-Kompetenz eingetragen haben. Das Repository wird laufend ergänzt, ist jedoch nicht rechtsverbindlich. Weiters bilden die darin enthaltenen Praktiken keine Garantie zur Compliance mit Art 4 AI Act, allerdings stellen sie eine gute Orientierung dar, welche Maßnahmen zur Sicherstellung von KI-Kompetenz in unterschiedlichen Branchen bereits ergriffen werden. Häufig genannte Praktiken umfassen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne eLearning-Plattformen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne Weiterbildungen und Trainingsprogramme,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Kenntnis-basierte Schulungen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Video-/Podcast-Reihen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;spielebasierte Trainings,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Erstellung von KI-Verhaltenskodizes und Risikobewertungssystemen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;eigene Chatbots zum Training im Umgang mit Sprachmodellen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Denkbar ist überdies die Teilnahme an externen Fortbildungen und Schulungen, die Entwicklung von internen Richtlinien (&amp;quot;KI-Guidelines&amp;quot;) oder die Schaffung von sog &amp;quot;KI-Beauftragten&amp;quot; in der Organisation. Ob die Schulungsmaßnahmen fortlaufend zu erfolgen haben, ist rechtlich nicht vorgeschrieben, wird allerdings anzunehmen sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Dieser Ansicht folgend: &#039;&#039;Siglmüller&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 4 KI-Kompetenz Rz 5.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Ebensowenig sind die genauen Inhalte der Kompetenzvermittlungsmaßnahmen definiert. Es kann jedenfalls davon ausgegangen werden, dass diese zielgruppengerecht und zugeschnitten auf unterschiedliche Bedürfnisse erfolgen sollten. Weiters werden sie sich bei manchen Branchen, KI-Einsatzgebieten oder Personengruppen nicht lediglich auf rechtliche oder technische Anforderungen beschränken, sondern ebenso soziale und ethische Komponenten umfassen. Bei der Entwicklung und Nutzung von GPAI-Modellen wird beispielsweise die Vermittlung von Kenntnissen im Zusammenhang mit Urheberrecht, Datenschutz, &amp;quot;Bias&amp;quot; (Verzerrungen) oder &amp;quot;Halluzinationen&amp;quot; (erfundene falsche Ausgaben) sinnvoll sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger,&#039;&#039; Wissenskultur im KI-Zeitalter – eine Auseinandersetzung mit der KI-Kompetenz nach Art 4 AI Act und ihren praktischen Implikationen, ZIIR 2025, 250.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die EU-Kommission hat darüber hinaus eine [https://digital-strategy.ec.europa.eu/de/faqs/ai-literacy-questions-answers &amp;quot;FAQ-Seite&amp;quot;] mit Fragen und Antworten zur KI-Kompetenz angelegt, um einen besseren Überblick über die Anforderungen zu geben.&amp;lt;/mark&amp;gt;    &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten, &amp;lt;mark&amp;gt;da sie besonders schädlich sind, enormes Missbrauchspotenzial aufweisen und im Widerspruch zu europäischen Grundrechten und Grundfreiheiten stehen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 28 AI Act.&amp;lt;/mark&amp;gt; MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt; (Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt; Folgende Praktiken sind davon umfasst: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Praktik&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Nicht erfasste Praktiken&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsgrundlage&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Unterschwellige Beeinflussung außerhalb des Bewusstseins oder manipulative/täuschende Techniken&#039;&#039;&#039;, wodurch die freie Entscheidungsfähigkeit von Personen beeinträchtigt wird und ein Schaden mit hinreichender Wahrscheinlichkeit eintritt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ableitung sensibler Informationen aus Gehirnen von Nutzern über Maschine-Gehirn-Schnittstellen&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 29 AI Act sowie Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 66.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Chatbots, die zur Selbstverletzung verleiten&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 87.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Unterschwellige visuelle oder auditive Reize bzw generelle sensorische Manipulation&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 65 und 68.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erlaubt ist hingegen der Einsatz eines KI-Systems, das personalisierte Empfehlungen auf der Grundlage transparenter Algorithmen und Nutzerpräferenzen verwendet, und sich nicht absichtlich manipulativer Techniken bedient.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 128.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit a&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Ausnutzen der Vulnerabilität/Schutzbedürftigkeit&#039;&#039;&#039; aufgrund des Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine KI-Begleit-App, die durch gewisse Sprachmuster und Verhaltensweisen gezielt emotionale Abhängigkeiten und ungesunde Bindungen bei älteren Menschen erzeugt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-gestütztes Spielzeug, das Kinder zu riskanten Herausforderungen ermutigt oder durch süchtig machende Techniken zu übermäßigem Spielen anregt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte &amp;quot;Grooming-Praktiken&amp;quot; (gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht), um Mädchen mit Behinderung im Internet anzusprechen und zu manipulieren&amp;lt;ref&amp;gt;Vgl Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 88 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Kinder beim Lernen einer Fremdsprache durch den Einsatz unterschwelliger Techniken unterstützen soll, sofern sie transparent arbeitet und die Nutzerautonomie wahrt.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Benommenheit und Ermüdung bei Fahrern erkennen und sie im Einklang mit den Sicherheitsvorschriften mit Warnmeldungen auf Ruhepausen hinweisen, gelten ebenso nicht als Ausnutzung von Vulnerabilitäten.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 130ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit b&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social scoring&#039;&#039;&#039; (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Verwendung eines KI-Systems zur Schätzung der Betrugswahrscheinlichkeit bei Empfängern von Haushaltszulagen durch das Sozialamt, das sich auf Merkmale stützt, die in sozialen Kontexten ohne offensichtlichen Zusammenhang mit oder Relevanz für die Bewertung von Betrug erhoben oder abgeleitet werden, wie zB ein Ehepartner mit einer bestimmten Staatsangehörigkeit oder ethnischen Herkunft, der Besitz eines Internetanschlusses, das Verhalten auf sozialen Plattformen oder die Leistung am Arbeitsplatz etc.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems durch eine öffentliche Stelle, um für die Früherkennung gefährdeter Kinder anhand von Kriterien wie der psychischen Gesundheit und Arbeitslosigkeit der Eltern, aber auch anhand von aus verschiedenen Kontexten abgeleiteten Informationen über das soziale Verhalten der Eltern Familienprofile zu erstellen. Auf der Grundlage der erzielten Bewertung werden Familien für Kontrollen ausgewählt und als „gefährdet“ geltende Kinder werden aus ihren Familien genommen, unter anderem auch in Fällen geringfügiger Übertretungen seitens der Eltern, wie zB gelegentlich verpasste Arzttermine oder verhängte Verkehrsstrafen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine Regierung führt ein umfassendes KI-gestütztes System ein, das die Bürgerinnen und Bürger auf der Grundlage ihres Verhaltens in verschiedenen Lebensbereichen wie sozialen Interaktionen, Online-Aktivitäten, Kaufgewohnheiten und Pünktlichkeit bei der Begleichung von Rechnungen überwacht und einstuft. Menschen mit einer niedrigeren Bewertung müssen damit rechnen, dass sie eingeschränkten Zugang zu öffentlichen Dienstleistungen erhalten, höhere Zinsen auf Kredite zahlen und auf Reisen und bei der Suche nach einer Wohnung oder sogar einem Arbeitsplatz Schwierigkeiten haben.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 166 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Bonitätsprüfung natürlicher Personen auf Basis persönlicher Merkmale wie dem Einkommen vor Vergabe eines Kredits.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basierte Erhebung von Geschwindigkeitsüberschreitungen oder hochriskantem Fahrverhalten, die zur Erhöhung der KFZ-Versicherungsprämien führen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte gezielte kommerzielle Werbung fällt nicht in den Anwendungsbereich, wenn sie auf relevanten Daten (z. B. Nutzerpräferenzen) beruht, im Einklang mit den Rechtsvorschriften der Union über Verbraucherschutz, Datenschutz und digitale Dienste erfolgt und nicht zu einer Schlechterstellung oder Benachteiligung führt, die in keinem angemessenen Verhältnis zur Tragweite des sozialen Verhaltens des Nutzers steht (z. B. ausbeuterische und unfaire differenzierte Preisgestaltung).&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 177.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit c&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Bewertung des Risikos, dass eine Person eine Straftat&#039;&#039;&#039; begeht (ausschließlich aufgrund von Profiling)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Eine Polizeidienststelle verwendet KI-gestützte Risikobewertungsinstrumente, um das Risiko zu bewerten, dass kleine Kinder und Jugendliche an „künftigen Gewalttaten und Eigentumsdelikten“ beteiligt sein werden. Das System bewertet Kinder auf der Grundlage ihrer Beziehungen zu anderen Menschen und deren vermeintlichen Risikoniveaus, dh es wird eventuell davon ausgegangen, dass bei Kindern ein höheres Risiko für die Begehung von Straftaten besteht, einfach weil sie mit einer anderen Person wie einem Geschwisterkind oder einem Freund verbunden sind, bei der eine hohe Risikobewertung vorliegt. Das Risikoniveau der Eltern kann sich ebenfalls auf das Risikoniveau eines Kindes auswirken.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 202.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Standortbezogene oder geodatenbasierte Vorhersagen oder ortsbezogene Verbrechensvorhersagen (zB KI-System zur Berechnung der Kriminalitätswahrscheinlichkeit in bestimmten Stadtgebieten oder von Schmuggelrouten)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Unterstützung der durch Menschen durchgeführten Bewertung, die sich auf objektive und überprüfbare Tatsachen stützt, die in Zusammenhang mit einer kriminellen Aktivität stehen (zB Profiling zur Vorhersage gefährlichen Verhaltens in einer Menschenmenge, KI-basiertes Profiling von Personen, gegen die bereits ein Verdacht besteht, der auf mehreren überprüfbaren, objektiven Tatsachen beruht).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basiertes Profiling in Bezug auf juristische Personen&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur individuellen Vorhersage von Ordnungswidrigkeiten (zB Bagatellverkehrsdelikte)&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 212 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit d&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erstellung/Erweiterung von &#039;&#039;&#039;Datenbanken&#039;&#039;&#039; zur Gesichtserkennung durch &#039;&#039;&#039;ungezieltes Auslesen von Gesichtsbildern&#039;&#039;&#039;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen für Gesichtserkennungssoftware sammelt Bilder von Gesichtern, die mit einem „automatisierten Bildausleser“, der das Internet durchsucht und Bilder mit menschlichen Gesichtern erkennt, aus sozialen Medien (zB Facebook, X) ausgelesen wurden. Der Bildausleser sammelt diese Bilder mit allen damit verbundenen Informationen (wie der Quelle des Bildes (URL), der Geolokalisierung und manchmal den Namen der einzelnen Personen). Die Gesichtsmerkmale werden dann aus den Bildern extrahiert und in mathematische Darstellungen umgewandelt, die für die Indexierung und den künftigen Vergleich mit Hashtags versehen werden. Wenn ein Nutzer das Bild einer Person in das KI-System hochlädt, wird dieses System bestimmen, ob dieses Bild mit einem Gesicht in der Datenbank übereinstimmt.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 232.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Das ungezielte Auslesen anderer biometrischer Daten als Gesichtsbilder (zB Stimmaufnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Gesichtsbilddatenbanken, die nicht für die Erkennung von Personen verwendet werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Gesichtsbilder aus dem Internet sammeln, um KI-Modelle zur Erzeugung neuer Bilder fiktiver Personen zu entwickeln&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit e&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Emotionserkennungssysteme&#039;&#039;&#039; am Arbeitsplatz oder in Bildungseinrichtungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das beispielsweise aus Gesten, Stirnrunzeln oder fehlendem Lächeln ableitet, dass ein Mitarbeiter unglücklich, traurig oder gegenüber den Kunden wütend ist&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Systeme, die aus Stimmführung oder Körpersprache ableiten, dass ein Schüler zornig und im Begriff ist, gewalttätig zu werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Emotionen aus Tastenanschlägen (Art des Tippens), Gesichtsausdrücken, Körperhaltungen oder Bewegungen ableitet, beruht auf biometrischen Daten und fällt in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die den emotionalen Ton in hybriden Arbeitsteams überwachen, indem sie Emotionen aus Stimm- und Bildaufnahmen hybrider Videokonferenzen erkennen und ableiten, was in Regel der Förderung des sozialen Bewusstseins, des Managements emotionaler Dynamik und der Konfliktverhütung dienen würde&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems bei Online-Prüfungen zur Erkennung von Emotionen wie Erregungs- und Angstzustände&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung zur Bewertung des Wohlbefindens, des Motivationsniveaus und der Arbeits- oder Lernzufriedenheit von Studierenden oder Arbeitnehmern.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der Einsatz von KI-Erkennungssystemen, um auf die Ermüdung eines Berufspiloten oder -fahrers zu schließen, ihn zu warnen und ihm zu empfehlen, zur Vermeidung von Unfällen Pausen einzulegen, da Emotionserkennung keine physischen Zustände wie Schmerzen oder Ermüdung einschließt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das aus schriftlichen Texten (Analysen von Inhalt und Stimmung) Emotionen ableitet, um den Stil oder den Ton eines bestimmten Artikels zu bestimmen, beruht nicht auf biometrischen Daten und fällt daher nicht in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Werden Emotionserkennungssysteme nur zu persönlichen Schulungszwecken eingesetzt, sind sie zulässig, sofern die Ergebnisse nicht Personen mit Personalverantwortung zur Verfügung gestellt werden und keine Auswirkungen auf das Arbeitsverhältnis haben&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die durch eine Bildungseinrichtung erfolgende Verwendung einer KI-gestützten Software zur Verfolgung der Augenbewegungen bei Online-Prüfungen Studierender, um den Fixierungspunkt und die Bewegung der Augen zu verfolgen (um beispielsweise zu erkennen, ob unerlaubtes Material verwendet wird), ist nicht verboten, da das System Emotionen weder erkennt noch ableitet&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung aus medizinischen Gründen zur Unterstützung von Arbeitnehmern oder Studierenden mit Autismus und zur Verbesserung der Barrierefreiheit für blinde oder gehörlose Menschen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit f&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Kategorisierung,&#039;&#039;&#039; Ableitung von sensiblen Daten (religiöse Weltanschauung, politische Einstellung)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Personen, die auf einer Plattform sozialer Medien aktiv sind, nach ihrer angenommenen politischen Ausrichtung kategorisiert, indem es die biometrischen Daten der von ihnen auf die Plattform hochgeladenen Fotos analysiert, um ihnen gezielte politische Nachrichten zu übermitteln&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;ein System zur biometrischen Kategorisierung, das für sich in Anspruch nimmt, die religiöse Ausrichtung einer Person aus ihren Tätowierungen oder ihrem Gesicht ableiten zu können.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 280 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die mit der Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze, auch zu Strafverfolgungszwecken, befasst sind (zB bei Verdacht auf Darstellungen sexuellen Kindesmissbrauchs)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;die Kategorisierung von Patienten, bei der Bilder nach ihrer Haut- oder Augenfarbe verwendet werden, für medizinische Diagnosen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 284 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit g&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Echtzeit-Fernidentifizierungssysteme&#039;&#039;&#039; in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die polizeiliche Verwendung von Systemen zur biometrischen Echtzeit-Fernidentifizierung zu dem Zweck, Ladendiebe zu identifizieren und ihre Gesichtsbilder mit Kriminaldatenbanken zu vergleichen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 328.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung von Echtzeit-Gesichtserkennungstechniken durch die Polizei nach einem schweren Terroranschlag auf einen Weihnachtsmarkt mit zwölf Toten, um den Täter zu identifizieren und festzustellen, wohin er flieht. In diesem Zusammenhang nutzen sie auch die Echtzeit-Gesichtserkennungstechnik des nahe gelegenen Bahnhofs und der Zielbahnhöfe der Züge, die kurz nach dem Angriff von dort abgehen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 354.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit h&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&amp;lt;br /&amp;gt;&lt;br /&gt;
Einige dieser Praktiken sind darüber hinaus bereits nach anderen Rechtsvorschriften verboten, so beispielsweise gewisse manipulative und täuschende Techniken als &amp;quot;dark patterns&amp;quot; nach dem [[Digital Services Act (DSA)|Digital Services Act]] (gilt nur für bestimmte Plattform-Anbieter) oder die Verarbeitung biometrischer Daten zur Identifizierung einer Person nach Art 9 Abs 1 DSGVO, sofern keine der in Abs 2 genannten Ausnahmen vorliegt. Gemäß der neuen Plattformarbeitsrichtlinie&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Richtlinie (EU) 2024/2831 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit, ABl L 11. 11. 2024.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;, die bis Dezember 2026 in nationales Recht umzusetzen ist, ist überdies der Einsatz von automatisierten Überwachungs- und Entscheidungssystemen zur Erfassung personenbezogener Daten über den emotionalen oder psychischen Zustand einer Person (Emotionserkennung) verboten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;MwN &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2024) Art 5 Rz 104.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act klassifiziert Hochrisiko-KI-Systeme in Art 6. Dabei kennt er zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige&amp;quot; Hochrisiko-KI-Systeme bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei folgenden Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder stellt selbst ein solches Produkt dar&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten: bspw biometrische Identifizierung, kritische Infrastrukturen, grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle, Justiz und demokratische Prozesse).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis einer Entscheidungsfindung, an der das System beteiligt ist, wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot; &amp;lt;mark&amp;gt;Als Profiling gilt dabei iSd Art 4 Abs 4 DSGVO jede automatisierte Verarbeitung personenbezogener Daten, die darin besteht, bestimmte persönliche Aspekte einer Person zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, Gesundheit, persönliche Vorlieben, Zuverlässigkeit, Verhalten etc. zu analysieren oder vorherzusagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Europäische Kommission hat im Rahmen von Public Consultations unter anderem auch Rückmeldungen zu Anforderungen an Hochrisiko-KI-Systeme eingeholt, die eine Grundlage für Leitlinien bilden sollen, welche im Februar 2026 veröffentlicht werden sollen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;European Commission, Commission launches public consultation on high-risk AI systems, https://digital-strategy.ec.europa.eu/en/news/commission-launches-public-consultation-high-risk-ai-systems (Stand 6.6.2025).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Pflichten für Betreiber von Hochrisiko-KI-Systemen&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Betreiberpflichten nach Art 26 AI Act&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis &amp;lt;mark&amp;gt;([https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#KI-Kompetenz/AI_literacy_(Art_4_AI_Act) &amp;quot;KI-Kompetenz&amp;quot;] nach Art 4&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 40. &amp;lt;/ref&amp;gt;)&amp;lt;/mark&amp;gt; verfügen und ihnen die erforderliche Unterstützung zukommen lassen. &lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von automatisiert erzeugten &#039;&#039;&#039;Protokollen&#039;&#039;&#039; &amp;lt;mark&amp;gt;für einen Zeitraum von zumindest 6 Monaten (wobei hier entgegenstehende datenschutzrechtliche Regelungen vorgehen würden&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 42.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;)&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, vor Verwendung oder Inbetriebnahme des Hochrisiko-KI-Systems am Arbeitsplatz. &amp;lt;mark&amp;gt;Dies umfasst sowohl den Einsatz von &amp;quot;eingebetteten&amp;quot; als auch &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Weiters sind die Mitwirkungspflichten des Betriebsrats zu berücksichtigen (vgl §§ 96 f ArbVG). Nicht umfasst sind wahrscheinlich Informationspflichten gegenüber Bewerbern, da diese tendenziell nicht unter den von dieser Bestimmung geforderten &amp;quot;Arbeitnehmer-Begriff&amp;quot; fallen&amp;lt;/mark&amp;gt;.&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet. &amp;lt;mark&amp;gt;Diese Bestimmung gilt lediglich für den Einsatz von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen nach Art 6 Abs 2 iVm Anhang III.Die danach mitzuteilende Information sollte die Zweckbestimmung und die Art der getroffenen Entscheidung beinhalten (vgl ErwGr 93) sowie - nach einer hier vertretenen Auffassung - eine vorab Information über das Recht auf Erklärung nach Art 86 AI Act, welches von KI-Entscheidungen Betroffenen das Recht zugesteht, unter gewissen Voraussetzungen vom Betreiber eine klare und aussagekräftige Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess sowie zu den wichtigsten Elementen der getroffenen Entscheidung zu erhalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe die entsprechende Argumentationslinie im Detail: &#039;&#039;Research Institute&#039;&#039;, Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025) 100 ff, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.  &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 27 Abs 4 macht überdies die Verzahnung der Grundrechte-Folgenabschätzung (GRFA) mit anderen Folgenabschätzungen deutlich und schreibt bspw vor, dass bei Vorliegen einer Datenschutz-Folgenabschätzung nach Art 35 DSGVO die GRFA diese ergänzen bzw in diese integriert werden solle.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Piltz/Zwerschke&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 27 Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme Rz 32.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Sowohl die Verpflichtungen nach Art 26 als auch die Durchführung einer GRFA nach Art 27 treffen den Betreiber unabhängig davon, ob jemand (bspw Betroffene) deren Einhaltung einfordern. Im Unterschied dazu enthält der AI Act in den Artt 85 ff sog &amp;quot;Betroffenenrechte&amp;quot;, die aktiv von betroffenen Personen geltend zu machen sind. Dazu zählt insbesondere das [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Recht auf Erklärung nach Art 86], welches das einzige Betroffenenrecht darstellt, das direkt gegen den Betreiber durchsetzbar ist.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführer oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn die genannten Personen ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen;&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt;&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das &#039;&#039;nicht&#039;&#039; als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird.&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter (Erstanbieter) nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat jedoch mit dem neuen Anbieter zusammenzuarbeiten, insb Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI Act muss beachtet werden, dass die Rollenverteilung eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters erfolgt, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden &amp;lt;mark&amp;gt;sowie den Anforderungen an die Barrierefreiheit genügen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots, &amp;lt;mark&amp;gt;Sprachassistenten, Social Bots)&amp;lt;/mark&amp;gt;, sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Pflicht kann entfallen, wenn die Interaktion mit dem KI-System aus Sicht einer angemessen informierten, aufmerksamen und verständigen Person offensichtlich ist oder beim Einsatz von KI-Systemen, die für die Strafverfolgung zugelassen sind.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 43.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
*&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 40.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Chatbots&#039;&#039;&#039; können durch einen textlichen Hinweis zu Beginn des Gesprächs oder ein dauerhaft angezeigtes grafisches Symbol vorgestellt werden.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Bei &#039;&#039;&#039;Voicebots&#039;&#039;&#039; kommt eine der Interaktion vorausgehende Ansage, welche auf den KI-Einsatz hinweist, in Betracht.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social Bots&#039;&#039;&#039; können eine Information vor und mit jeder Interaktion des Bots in sozialen Netzwerken erfordern, da das System stets mit einem neuen Personenkreis in Interaktion tritt (zB AI-Influencer).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Das KI-Büro hat am 5. November 2025 Arbeiten an einem Verhaltenskodex in Bezug auf die Kennzeichnung von KI-generierten Inhalten aufgenommen. Die entsprechenden Leitlinien werden in einem siebenmonatigen Prozess, der sich insbesondere durch die Einbindung von relevanten Stakeholdern und öffentliche Konsultationen auszeichnen soll, erarbeitet werden. Näheres unter: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Mögliche Methoden wären bspw Wasserzeichen, Metadatenidentifizierungen, Kryptografische Methoden (zB &amp;quot;Hashing&amp;quot;), Protokollierungsmethoden oder Fingerabdrücke.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 133 Satz 4 sowie mwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 84 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Denkbar ist bspw eine Umsetzung in Form eines sichtbaren Wasserzeichens, eines textlichen Hinweises, durch Hinzufügen von sog C2PA-Content Credentials&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Die C2PA („Coalition forContent Provenanceand Authenticity“) ist ein branchenübergreifendes Non-profit-Projekt, das die Entwicklung gemeinsamer technischer Standards zur Ermittlung der Herkunft von digitalen Inhalten zum Ziel hat. Siehe dazu https://c2pa.org/. So hat sich bspw LinkedIn bei der Erkennung KI-generierter Inhalte diesen Standards unterworfen: https://www.linkedin.com/help/linkedin/answer/a6282984. MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 150.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;oder bei Audioinhalten durch eine Ansage zu Beginn des Audioinhalts.&amp;lt;ref&amp;gt;&#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 148 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Verpflichtung entfällt, wenn die betreffenden Inhalte vor ihrer Veröffentlichung einer menschlichen oder redaktionellen Kontrolle unterzogen wurden und eine Person die redaktionelle Verantwortung dafür trägt. Da die Anforderungen an die menschliche bzw redaktionelle Kontrolle nicht konkretisiert werden, unterwerfen sich bspw im journalistischen Bereich zahlreiche Medien freiwilligen Leitlinien (so etwa die [https://www.blm.de/files/pdf2/ki-leitlinien.pdf Leitlinien des Medienrats der Bayerischen Landeszentrale für neue Medien (BLM) zum Einsatz von Künstlicher Intelligenz im Journalismus]).&amp;lt;ref&amp;gt;MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 163 f.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als &amp;quot;KI-Systeme mit minimalem Risiko&amp;quot; bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&amp;lt;mark&amp;gt;Als Reaktion auf den sprunghaften Durchbruch generativer KI-Modelle, die für viele verschiedene Zwecke eingesetzt werden können, in den Jahren 2022 und 2023 wurden unter Durchbrechung des bisherigen zweck- und risikoorientierten Regelungsansatzes im Entwurfsstadium des AI Act nachträglich Regeln für solche Modelle eingefügt. Ein GPAI-Modell (in früheren Entwurfsfassungen foundation model/Basismodell) ist dabei in Art 3 Z 63 AI Act definiert als ein KI-Modell, das&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;das eine erhebliche allgemeine Verwendbarkeit aufweist,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;In den von der EU-Kommission im Juli 2025 veröffentlichten Leitlinien zu GPAI-Modellen werden eine kumulierte Menge der für das Training verwendeten Berechnungen von mehr als 10&amp;lt;sup&amp;gt;23&amp;lt;/sup&amp;gt; FLOPs und die Fähigkeit, geschriebene oder gesprochene Sprache (aber auch Bilder oder Videos aus Text) zu generieren, als Anhaltspunkte für das Vorliegen eines GPAI-Modells angegeben, es sei denn, das Modell erfüllt die oben angegebenen Kriterien der Allgemeinheit nicht (zB weil es spezifisch nur für die Transkription von Sprache in Text trainiert wurde).&amp;lt;ref&amp;gt;Leitlinien der Kommission zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, Rz 13ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; Somit ist davon auszugehen, dass die üblichen [https://de.wikipedia.org/wiki/Large_Language_Model LLM]s, wie die GPT-Serie von OpenAI, die Gemini-Serie von Google oder die Claude-Serie von Anthropic als GPAI-Modelle im Sinne dieser Definition einzustufen sind.&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Baustein/Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme in den risikobasierten Ansatz fallen (verbotene Systeme, Hochrisiko-KI-Systeme, Transparenzpflichten), unterliegen nur gewisse Modelle, nämlich GPAI-Modelle  einer Sonderregulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei wird binär zwischen GPAI-Modelle ohne und GPAI-Modelle mit systemischem Risiko unterschieden. &lt;br /&gt;
&lt;br /&gt;
Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act),&lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über Fähigkeiten mit hohem Wirkungsgrad verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; beträgt. Dies dürfte zurzeit nur auf GPT-4 und potentiell Varianten von Gemini zutreffen. Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act).&lt;br /&gt;
* ein solches Risiko kann von Amts wegen/aufgrund einer Warnung von der Kommission in einer Entscheidung festgestellt werden (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc) &lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden. &lt;br /&gt;
* Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
* eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
* eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
* mögliche systemische Risiken auf Unionsebene bewerten und mindern,&lt;br /&gt;
* einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
* ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten.&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung dieser Verordnung beizutragen sollen (Art 56 Abs 1 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die Praxisleitfäden sollen mindestens die in Art 53-55 AI Act vorgesehenen Pflichten abdecken, darunter (Art 56 Abs 2 AI Act)&lt;br /&gt;
&lt;br /&gt;
* Mittel, mit denen sichergestellt wird, dass die in Art 53 Abs 1 lit a und b AI Act genannten Informationen (technische Dokumentation des Modells; Information und Dokumentation für die Integrierung des Modells) vor dem Hintergrund der Marktentwicklungen und technologischen Entwicklungen auf dem neuesten Stand gehalten werden&lt;br /&gt;
* die angemessene Detailgenauigkeit bei der Zusammenfassung der für das Training verwendeten Inhalte&lt;br /&gt;
* die Ermittlung von Art und Wesen der systemischen Risiken auf Unionsebene&lt;br /&gt;
* die Maßnahmen, Verfahren und Modalitäten für die Bewertung und das Management der systemischen Risiken auf Unionsebene&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von KI-Modellen mit allgemeinem Verwendungszweck sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 65 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein erster Entwurf eines solchen Leitfadens, ausgearbeitet von internationalen Expert*innen, wurde im November 2024 von der Europäischen Kommission präsentiert.&amp;lt;ref&amp;gt;&#039;&#039;European Commission&#039;&#039;, First Draft of the General-Purpose AI Code of Practice published, written by independent experts, https://digital-strategy.ec.europa.eu/en/library/first-draft-general-purpose-ai-code-practice-published-written-independent-experts (Stand 14. 11. 2024).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Für den am 10. Juli 2025 veröffentlichten Praxisleitfaden hat die EU-Kommissionen eine allgemeine [https://digital-strategy.ec.europa.eu/de/faqs/questions-and-answers-code-practice-general-purpose-ai &amp;quot;FAQ-Sektion&amp;quot;] angelegt, um zusätzliche Informationen bereitzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt. &lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der AILD und PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Stand November 2025 wurde in Österreich noch keine Behörde als zuständige Marktüberwachungsbehörde eingerichtet oder benannt. Bereits mit 2. November 2024 sind jedoch einige Behörden und öffentliche Stellen im Grundrechtsbereich gemäß Art 77 Abs 2 mit Aufsichts- und Durchsetzungsbefugnissen für Grundrechte insb im Zusammenhang mit Hochrisiko-KI ausgestattet worden, darunter die Volksanwaltschaft, die Datenschutzbehörde, die Arbeiterkammer, die Gleichbehandlungskommission, die Behindertenanwaltschaft, die KommAustria uvm.&amp;lt;ref&amp;gt;Mehr dazu unter: https://www.digitalaustria.gv.at/themen/kuenstliche-intelligenz/behoerden-art77-ai-act.html.&amp;lt;/ref&amp;gt; Dabei treffen auch die (künftig) zuständige Marktüberwachungsbehörde umfassende Kooperationspflichten, wie etwa die Meldung schwerwiegender Grundrechtsvorfälle in diesem Kontext an die genannten Einrichtungen (vgl Art 73 Abs 7 und Art 79 Abs 2 AI Act).&amp;lt;ref&amp;gt;Vgl &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 103, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Dazu hat die Kommission entsprechende Leitlinien zu veröffentlichen, die sich gerade in Ausarbeitung befinden.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung im Einzelfall betroffen sind,&lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (&amp;lt;mark&amp;gt;Recht auf Erläuterung der Entscheidungsfindung im Einzelfall gemäß Art 86 Abs 1 AI Act oder auch gemeinhin als &#039;&#039;&#039;&amp;quot;Recht auf Erklärung&amp;quot;&#039;&#039;&#039; bezeichnet&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157; &#039;&#039;Poindl/Müller,&#039;&#039; Das Recht auf Erklärung im AI Act. Betroffenenrecht mit Potenzial oder Papiertiger?, VbR 2025, 40. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei ist es unerheblich, ob das KI-System die Entscheidung gänzlich autonom getroffen hat oder unterstützend beteiligt war, es darf lediglich keine untergeordnete Rolle im Entscheidungsprozess gespielt haben.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Steht das Recht auf Erklärung zu, hat die betroffene Person einerseits das Recht, eine Erklärung über die Rolle des KI-Systems im Entscheidungsprozess zu verlangen, worunter einerseits Informationen über die zentralen Aufgaben des Systems im Entscheidungsprozess fallen (zB Zielgruppenselektion, Datenanalyse, Vorgabe der Entscheidung usw.) und andererseits auch der Grad dessen Beteiligung (gering, mittel, hoch), was umgekehrt auch den Grad menschlicher Beteiligung an der Entscheidungsfindung erfordert. Weiters sind die wichtigsten Elemente der Entscheidung zu beauskunften, beispielsweise Eingabedaten, wesentliche Entscheidungsgründe, kontrafaktische Erklärungen (inwiefern hätten andere Parameter zu einer anderen Entscheidungen geführt), die Auswirkungen der Entscheidung, die Gewichtung der einzelnen Kriterien und die Verarbeitungslogik (Informationen über die grobe Funktionsweise des KI-Systems, keine komplette Offenlegung des algorithmischen Codes). Weiters muss die Erklärung präzise, korrekt, verständlich, nicht zu technisch (keine komplexen mathematischen Formeln), aber dennoch vollständig sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letzter Referenzpunkt ist stets, ob die betroffene Person auf Basis der erlangten Informationen weitere Rechte geltend machen kann, da das Recht auf Erklärung auch oft als &amp;quot;Türöffner&amp;quot; für die Geltendmachung weiterer Rechte dient (so wird bspw eine Klage wegen Diskriminierung in einem Entscheidungsprozess erst erhoben werden können, wenn die betroffene Person genügend Informationen hat, um die Diskriminierung darzulegen, bspw die Gewichtung von bestimmten persönlichen Merkmalen, die ausschlaggebend für die Entscheidung war).&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Es handelt sich somit um ein nachgelagertes bzw &#039;&#039;ex post&#039;&#039; Recht, das nicht nur globale, abstrakte Systemerklärungen erfordert, sondern auch lokale, einzelfallbezogene Auskünfte umfasst, damit die betroffene Person die Informationen wirksam nutzbar machen kann .&amp;lt;/mark&amp;gt; Das Recht auf Erklärung steht Betroffenen gegenüber Betreibern und nicht gegenüber Anbietern zu, wobei letztere wiederum Betreibern entsprechende Betriebsanleitungen bereitzustellen haben (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung gilt nicht, sofern Ausnahmen nach Unionsrecht oder nationalem Recht bestehen (Art 86 Abs 2). Zu denken wäre hier etwa an Beschränkungen der Informationspflicht aufgrund geschützter Betriebs- oder Geschäftsgeheimnisse, wobei diese nicht zu einer pauschalen Auskunftsverweigerung führen dürfen.&amp;lt;/mark&amp;gt; Art 86 Abs 1 gilt überdies nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung Subsidiarität] ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung ist immer dann relevant, wenn Unternehmen, Behörden etc. KI in Entscheidungsfindungsprozessen einsetzen, die Auswirkungen auf bestimmte Personen(-gruppen) haben. Zu denken ist etwa an KI-basierte Entscheidungen über die Vergabe von Krediten, über die Berücksichtigung einer Bewerbung, über die Höhe einer Versicherungsprämie oder personalisierte Werbeschaltungen auf Basis von Emotionserkennung.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zum Umgang mit dem Recht auf Erklärung in der Praxis hat das &#039;&#039;Research Institute&#039;&#039; im Auftrag des Bundesministeriums für Arbeit, Soziales, Gesundheit, Pflege und Konsumentenschutz Leitlinien entwickelt:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:f1685e43-21b8-48f3-9fe5-2c61898960ae/Final_Aufkl%C3%A4rung%204.0_Unternehmensleitfaden_April2025.pdf Leitfaden für Unternehmen] im Umgang mit Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:40ba630c-39af-4b8d-8768-a69192427b09/Final_Aufkl%C3%A4rung%204.0_Konsumentinnenleitfaden_April2025.pdf Leitfaden für Konsument:innen und ihre Interessenvertretungen] zur Durchsetzung ihrer Rechte&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf Theoretischer Grundlagenbericht] zur wissenschaftlichen Fundierung der ausgesprochenen Empfehlungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Grundlegende Überschneidungen zwischen dem AI Act und der Datenschutz-Grundverordnung (DSGVO)&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Da KI-Systeme bzw -Modelle häufig personenbezogene Daten verarbeiten - bspw im Rahmen des Trainings eines KI-Modells oder zur Entscheidungsunterstützung in Bezug auf konkrete Personen -, stellt sich unweigerlich die Frage nach dem Zusammenwirken des AI Act mit der DSGVO.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Der Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA) des LfDI Baden-Württemberg enthält eine Auswahl von Orientierungshilfen verschiedener Aufsichtsbehörden und Gremien zu den Schnittstellen von DSGVO und KI: https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0. MwN &#039;&#039;Holtz/Ledendal,&#039;&#039; AI Data Governance - Overlaps Between the AI Act and the GDPR (iE, 2026): https://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1996843&amp;amp;dswid=-4177 sowie der [https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/DE-Bridge-Blueprint-v.0.9.pdf &amp;quot;Bridge Blueprint&amp;quot;-Entwurf] zur einheitlichen Anwendung von Datenschutz- und KI-Regulierung des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI).&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letztere knüpft ihren Anwendungsbereich nämlich an die Verarbeitung personenbezogener Daten iSd Art 4 Abs 1 DSGVO, worunter alle Informationen zu verstehen sind, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Die DSGVO ist seit 2018 in Anwendung und verfolgt den Grundsatz, dass jegliche Verarbeitung personenbezogener Daten verboten ist, es sei denn, es liegt ein Erlaubnistatbestand nach Art 6 Abs 1 DSGVO vor. Für die Verarbeitung sog &amp;quot;sensibler Daten&amp;quot; nach Art 9 DSGVO (zB Gesundheitsdaten, die ethnische Herkunft, die religiöse Weltanschauung etc.) legt sie noch strengere Maßstäbe an. Damit verfolgt die DSGVO einen horizontalen sowie prinzipienbasierten Ansatz, wonach bei der Verarbeitung personenbezogener Daten bestimmte Anforderungen und Grundsätze einzuhalten sind, ungeachtet der verwendeten Technologie, des Sektors oder des Einsatzgebiets.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 32, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus orientiert sich die Verordnung daran, inwieweit eine bestimmte Datenverarbeitung ein Risiko für die Rechte und Freiheiten natürlicher Personen darstellt (&amp;quot;risikobasierter Ansatz&amp;quot;), wonach sich letztendlich die Strenge der von ihr vorgeschriebenen Verpflichtungen bemisst.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Der AI Act erkennt das Primat der DSGVO in Art 2 Abs 7 an und statuiert, dass er deren Anwendungsbereich unberührt lässt. Somit gehen im Falle der Verarbeitung personenbezogener Daten durch eine KI-Anwendung die Regelungen der DSGVO grundsätzlich vor, während der AI Act dem ergänzend eine produktsicherheitsrechtliche Komponente beifügt, die während der Entwicklung und des Einsatzes von KI zu beachten ist.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 33, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Überschneidungen beider Rechtsakte ergeben sich bspw, sobald ein KI-Modell mit personenbezogenen Daten &#039;&#039;&#039;trainiert&#039;&#039;&#039; werden soll. In diesem Fall braucht es eine Rechtsgrundlage nach Art 6 Abs 1 DSGVO (und ggf Art 9 DSGVO), wobei hier am ehesten die berechtigten Interessen des Verantwortlichen nach lit f leg cit infrage kommen. So hat sich bspw der Facebook-Mutterkonzern Meta auf berechtigte Interessen berufen, um sein Sprachmodell &amp;quot;LLaMA&amp;quot; hinter seiner &amp;quot;Meta AI&amp;quot; mit Nutzerdaten zu trainieren. Dagegen erhob die Verbraucherschutzzentrale NRW Antrag auf Erlass einer einstweiligen Verfügung, letztendlich entschied jedoch das OLG Köln in seinem Beschluss vom 23.05.2025 (15 UKl 2/25), dass sich Meta für das KI-Training mit Nutzerdaten auf berechtigte Interessen stützen könne.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://www.verbraucherzentrale.nrw/urteilsdatenbank/digitale-welt/olg-koeln-weist-eilantrag-der-verbraucherzentrale-nrw-gegen-meta-wegen-kitraining-zurueck-108065.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Umgekehrt ist laut Art 35 DSGVO immer dann eine Datenschutz-Folgenabschätzung durchzuführen, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat, insbesondere bei Verwendung neuer Technologien. Darunter fallen gemäß §2 Abs 2 Z 4 DSFA-V&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Verordnung der Datenschutzbehörde über Verarbeitungsvorgänge, für die eine Datenschutz-Folgenabschätzung durchzuführen ist (DSFA-V), BGBl. II Nr. 278/2018.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;insbesondere Datenverarbeitung unter Einsatz von künstlicher Intelligenz, welcher jedenfalls die Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung nach sich zieht. Somit löst auch der Einsatz von KI unter gewissen Voraussetzungen datenschutzrechtliche Pflichten aus.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: Digital Services Act (DSA) vs AI Act ===&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der DSA legt einheitliche Regeln für Vermittlungsdienste mit dem Ziel fest, ein vertrauenswürdiges, (rechts-)sicheres und vorhersehbares Online-Umfeld für Verbraucher und Unternehmen durch eine harmonisierte Plattformregulierung zu gewährleisten. Ebenso zielt das Regelwerk auf den Schutz sowie die Gewährleistung einer effektiven Grundrechtsausübung und normiert umfassende Verpflichtungen für Anbieter von Online-Diensten in Form eines abgestuften Regelungsansatzes, der die unterschiedlichen Compliance-Pflichten an die Art und Größe der jeweiligen Online-Dienste knüpft. Dabei kennt der DSA folgende Anbieterkategorien: Anbieter von allgemeinen Vermittlungsdiensten, Hostingdiensten, Online- sowie Transaktionsplattformen und sehr großen Online-Plattformen (VLOPs) und -Suchmaschinen (VLOSEs). Überschneidungen mit dem AI Act können sich auf zweierlei Weise ergeben: Einerseits können KI-Anwendungen zur Generierung oder Manipulation von Inhalten verwendet werden, die dann über Vermittlungsdienste geteilt werden. Andererseits können KI-Systeme das Kernangebot des Diensteanbieters ausmachen, in der Inhaltsmoderation eingesetzt werden oder Produkt- bzw Service-Empfehlungen auf Basis von Nutzerverhalten (&amp;quot;Empfehlungsalgorithmen&amp;quot;) schalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 48, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Allgemeine Synergien sind dem [[Digital Services Act (DSA)|Eintrag über den DSA]] zu entnehmen.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
* Weiters kann es bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act in Bezug auf die notwendige Risikoanalyse kommen. &amp;lt;mark&amp;gt;So fordern die Artikel 34 und 35 DSA die Analyse jener potenzieller systemischer Risiken, die sich durch das Design, die Funktion oder die Nutzung ihrer Services ergeben, insbesondere im Zusammenhang mit algorithmischen Systemen oder Systemen zur Inhaltsmoderation. Demgegenüber legt der AI Act in Art 17 die Verpflichtung für Anbieter von Hochrisiko-KI-Systemen zur Etablierung eines Risikomanagementsystems gemäß Art 9 AI Act fest und sieht spezielle Anforderungen für Anbieter von GPAI-Modellen mit systemischem Risiko vor (Art 55 Abs 1 lit b AI Act).&amp;lt;/mark&amp;gt; Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Im Fall von Anbietern von Hochrisiko-KI-Systemen sieht der AI Act sogar explizit die Möglichkeit vor, Risikomanagementprozesse nach anderen unionsrechtlichen Bestimmungen mit jenen nach dem AI Act zu kombinieren (vgl Art 9 Abs 10 AI Act).&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 49, &amp;lt;nowiki&amp;gt;https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Art 86 AI Act normierte Recht auf Erläuterung] besteht potentiell eine Subsidiarität gegenüber anderen Auskunftsansprüchen, insb der Auskunftspflicht nach Art 15 Abs 1 lit h DSGVO iVm Art 22 DSGVO. &amp;lt;mark&amp;gt;Demnach steht Personen, die von einer automatisierten Entscheidungsfindung im Einzelfall einschließlich Profiling betroffen sind, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie ähnlich erheblich beeinträchtigt, das Recht zu, neben allgemeinen Informationen über die Verarbeitung ihrer personenbezogenen Daten aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und Auswirkungen einer derartigen Verarbeitung zu verlangen. Inhaltlich&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;richtet sich der Auskunftsanspruch nach Art 15 Abs 1 lit h DSGVO gemäß rezenter EuGH-Judikatur insb auf die Erläuterung des Verfahrens und der Grundsätze, die bei der automatisierten Verarbeitung der personenbezogenen Daten der betroffenen Person zur Anwendung kamen und zu dem bestimmten Ergebnis geführt haben.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117, Rz 58. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Frage nach einer potenziellen Subsidiarität von Art 86 AI Act gegenüber den entsprechenden datenschutzrechtlichen Vorschriften hängt von unterschiedlichen Fallszenarien ab, in denen die jeweils verwendeten Technologien und verarbeiteten Datenkategorien zu unterschiedlichen Ergebnissen führen können:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 15 Abs 1 lit h iVm Art 22 DSGVO&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsfolge&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Hochrisiko-KI-Einsatz in Entscheidungsfindungsprozessen, in denen entweder keine personenbezogenen Daten gemäß Art 4 Z 1 DSGVO verarbeitet werden (zB Verarbeitung lediglich aggregierter Daten) oder keine vollautomatisierte Entscheidung iSd Art 22 DSGVO getroffen wird (etwa weil ein Mensch maßgeblich an der Entscheidungsfindung beteiligt ist)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Das Recht auf Erklärung steht vollumfänglich wie in Art 86 Abs 1 dargelegt zu (bei Vorliegen der übrigen Voraussetzungen). Der betroffenen Person sind somit klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess und zu den wichtigsten Elementen der getroffenen Entscheidung zu übermitteln, wobei die Erklärung einzelfallbezogen und auf das konkrete Ergebnis gerichtet sein muss. Der Anwendungsbereich von Art 15 (Abs 1 lit h iVm Art 22) DSGVO ist hingegen nicht eröffnet. Das Recht, die Entscheidung anzufechten, steht - zumindest gemäß AI Act - nicht zu.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Es findet eine vollautomatisierte Entscheidungsfindung auf Basis der Verarbeitung personenbezogener Daten statt, allerdings ohne Beteiligung eines Hochrisiko-KI-Systems iSd Art 6 Abs 2 iVm Anhang III AI Act (bspw wird die Entscheidung durch einen herkömmlichen Algorithmus getroffen, der Anforderungen an ein KI-System nach Art 3 Z 1 AI Act nicht erfüllt oder das KI-System fällt nicht in den Hochrisiko-KI-Bereich)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Auskunftsanspruch gemäß Art 15 (Abs 1 lit h iVm Art 22) DSGVO steht bei Vorliegen der übrigen Voraussetzungen zu, während das Recht auf Erklärung nach Art 86 AI Act keine Anwendung findet. Es sind der betroffenen Person somit Informationen über die involvierte Logik, Tragweite und Auswirkungen der Entscheidung zu übermitteln, wobei Informationen über die Rolle des eingesetzten Systems nicht darunter fallen. Im Unterschied zu Art 86 AI Act ist in Bezug auf Art 15 Abs 1 lit h DSGVO jedoch noch unklar, ob auch eine Verpflichtung zu einer einzelfallbezogenen Begründung der konkret erzielten Ergebnisse besteht, die über eine abstrakte/allgemeine Erklärung hinausgeht.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl etwa das EuGH-Urteil in der RS Dun &amp;amp; Bradstreet, welches stärker auf das lokale Element, dh die Einzelentscheidung, abzustellen scheint (EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117). MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 71, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Art 22 Abs 3 DSGVO enthält jedoch im Gegensatz zum AI Act das Recht, die Entscheidung anzufechten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Verarbeitung personenbezogener Daten im Rahmen der Entscheidungsfindung, Einsatz eines Hochrisiko-KI-Systems, vollautomatisierte Entscheidungsfindung&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Anspruch nach Art 86 AI Act tritt ergänzend zu jenem nach der DSGVO hinzu und richtet sich auf jene Informationen, die nach Art 15 DSGVO nicht zu beauskunften sind (bspw die Rolle des KI-Systems im Entscheidungsprozess sowie jedenfalls einzelfallbezogene, lokale Erklärungen). Es handelt sich somit um eine sog &amp;quot;Lückenfüller-Position&amp;quot; von Art 86 AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Ansicht folgend und mwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 96 ff, &amp;lt;nowiki&amp;gt;https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;mark&amp;gt;In der Regel werden Betroffene in der Praxis wohl beide Ansprüche gleichzeitig geltend machen. Dies ist allerdings nur möglich, sofern beide Ansprüche auch gegenüber der selben Person bzw Einrichtung geltend zu machen sind. Denn während das Recht auf Erklärung nach Art 86 AI Act gegen den Betreiber des KI-Systems zusteht, ist der Auskunftsanspruch gemäß Art 15 Abs 1 lit h DSGVO gegen jene Person oder Stelle zu richten, welche die Entscheidung getroffen hat (welche zwar meist aber nicht zwangsläufig mit der Person des datenschutzrechtlich Verantwortlichen iSd Art 4 Z 7 DSGVO ident sein wird&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Argumentation folgend: &#039;&#039;Ziegenhorn,&#039;&#039; Wer ist Adressat des Art. 22 DSGVO? Zur Abgrenzung des Entscheiders vom Verantwortlichen, CR 2024, 586.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;). Die unterschiedlichen Rollen nach AI Act und DSGVO können somit zusammenfallen, müssen dies allerdings nicht, wodurch sich unterschiedliche Verpflichtungen für die beteiligten Akteure ergeben können.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== Produkthaftungsrichtlinie neu und Vorschlag für eine AI Liability Directive [zurückgezogen] ===&lt;br /&gt;
&lt;br /&gt;
* Die Produkthaftungsrichtlinie neu (PHRL neu) und insbesondere &amp;lt;mark&amp;gt;der (zurückgezogene)&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Commission work programme 2025, (11.2.2025) COM(2025) 45 final, 26.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Vorschlag für eine&amp;lt;/mark&amp;gt; AI Liability Directive (AILD) nehmen direkt auf den AI Act Bezug und verweisen bei der Begriffsverwendung häufig auf diesen. Die AILD kann somit nicht ohne den Kontext des AI Act verstanden werden. So sollten die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD bilden ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]). &lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act überträgt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Begleit- bzw Durchführungsgesetz, das die Sanktionen konkretisiert.  &amp;lt;mark&amp;gt;Auch die notifizierende(n) Behörde(n) und die Marktüberwachungsbehörde(n) (Art 70 AI Act) wurden in Österreich noch nicht benannt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 5: Transkriptionstool im Rahmen der Rechtspflege&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|&amp;lt;mark&amp;gt;Im Rahmen des Verfassens von Urteilen oder Protokollen wird das gesprochene Wort (Diktat des Entscheidungsorgans) digital aufgezeichnet und anschließend transkribiert. Das System ist in der Lage, mithilfe KI-gestützter Spracherkennung die jeweils Sprechenden (Speaker Diarisation) sowie juristische Begriffe und Redewendungen zu erkennen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Transkriptionssoftware liegt ein Sprachmodell (LLM) zugrunde, das auf maschinellem Lernen basiert. Dieses wird durch ein User-Interface praktisch nutzbar gemacht und stellt somit ein KI-System iSd AI Act dar.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&amp;lt;mark&amp;gt;Der Einsatz von KI in der Rechtspflege zu gewissen Zwecken kann in den Hochrisiko-KI-Bereich gemäß Art 6 Abs 2 iVm Anhang III Nr 8 lit a AI Act fallen. Solche Systeme sind jedoch nicht als hochriskant einzustufen, sofern sie für rein begleitende administrative Tätigkeiten bestimmt sind, worunter jedenfalls Spracherkennungsprogramme für das Diktieren von Entscheidungen fallen können (ErwGr 61). In einem nächsten Schritt ist die Ausnahmeregelung des Art 6 Abs 3 AI Act zu prüfen, wonach das System höchstwahrscheinlich gemäß lit a leg cit aus dem Hochrisiko-KI-Bereich ausgenommen ist, da es rein für Protokollierungszwecke eingesetzt wird und damit nur eine eng gefasste Verfahrensaufgabe übernimmt. Ebenso ist denkbar, gemäß lit d leg cit aus dem Hochrisiko-KI-Bereich ausgenommen zu sein, sofern das System lediglich eine vorbereitende Aufgabe für die Urteilserstellung übernimmt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Bejaht man hingegen das Vorliegen von Hochrisiko-KI, so treffen deren Anbieter die Pflichten der Art 8 ff AI Act und den Betreiber insbesondere die Pflichten nach Art 26 und 27 AI Act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Sofern es sich um ein KI-Modell mit allgemeinem Verwendungszweck (mit systemischem Risiko) handelt, treffen den Anbieter diesbezüglich Verpflichtungen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Unabhängig von der Risikoeinstufung des Modells bzw Systems sind darüber hinaus die Transparenzpflichten nach Art 50 AI Act zu beachten sowie ein ausreichendes Maß an KI-Kompetenz unter den Beschäftigten, die mit dem Transkriptionstool arbeiten, herzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 6: KI-System zur Filterung und Priorisierung von Bewerbungen&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Sachverhalt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen möchte eine neue Stelle besetzen und erhält unzählige Bewerbungen. Daher entschließt es sich, ein KI-basiertes System einzusetzen, das Bewerbungen filtert und mit einem Einstufungswert versieht, wodurch die Bewerbungen priorisiert werden. Die zuständigen HR-Mitarbeiter*innen weichen nicht mehr von dem Wert ab und vergeben die Stelle schließlich an jene Person, die den höchsten Einstufungswert erhalten hat.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!&amp;lt;mark&amp;gt;Einordnung AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Sofern es sich bei der Anwendung um ein KI-System nach Art 3 Z 1 AI Act handelt, ist der Anwendungsbereich des AI Act grundsätzlich eröffnet. Das Unternehmen ist jedenfalls als dessen Betreiber zu qualifizieren, da es das System in eigener Verantwortung zu beruflichen Zwecken einsetzt. Sofern es das KI-System auch selbst entwickelt / entwickeln lässt und es unter eigener Marke bzw eigenem Namen in Betrieb nimmt, ist es sogar Anbieter.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]].&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Darüber hinaus stellt das System ein &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System nach Art 6 Abs 2 iVm Anhang III Punkt 4a AI Act dar, da es bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet wird, um Bewerbungen zu filtern und Bewerber zu bewerten. Eine Ausnahme nach Art 6 Abs 3 AI Act vom Hochrisiko-KI-Bereich liegt nicht vor, da das KI-System das Ergebnis der Entscheidungsfindung wesentlich beeinflusst (von dem KI-generierten Eignungswert wird nicht mehr abgewichen). Je nach Rolle treffen das Unternehmen nun weitereichende Verpflichtungen. In den meisten Fällen wird das Unternehmen wohl als Betreiber zu klassifizieren sein, weshalb es unter anderem die Betreiberpflichten nach Art 26 AI Act zu erfüllen und unter gewissen Voraussetzungen eine Grundrechte-Folgenabschätzung nach Art 27 AI Act durchzuführen hat. Art 26 Abs 7 sieht grundsätzlich auch die spezielle Betreiberpflicht vor, vor Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz die Arbeitnehmervertreter und betroffenen Arbeitnehmer über den KI-Einsatz zu informieren. Inwieweit diese Verpflichtung auch gegenüber Bewerbern gilt, die streng genommen (noch) keine Arbeitnehmer sind, ist fraglich und wird wohl zu verneinen sind. Diese vermeintliche Rechtsschutzlücke wird jedoch ohnehin wieder durch die Verpflichtung gemäß Art 26 Abs 11 AI Act ausgeglichen, von Hochrisiko-KI-Entscheidungen betroffene Personen über diesen KI-Einsatz zu informieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= &amp;lt;mark&amp;gt;Digitaler Omnibus&amp;lt;/mark&amp;gt; =&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 19. November 2025 stellte die Europäische Kommission das sogenannte &#039;&#039;&#039;„Digital Omnibus Package“&#039;&#039;&#039; vor, ein Legislativpaket mit dem Ziel, den digitalen Rechtsrahmen der EU zu vereinfachen.&amp;lt;ref name=&amp;quot;:2&amp;quot;&amp;gt;Vgl https://ec.europa.eu/commission/presscorner/detail/de/ip_25_2718. &amp;lt;/ref&amp;gt; Ziel der Maßnahme ist, Verwaltungs- und Umsetzungskosten zu senken, Rechtsklarheit zu erhöhen und insbesondere kleine und mittlere Unternehmen (KMU) zu entlasten, da Unternehmen zunehmend Schwierigkeiten bei der Umsetzung und Koordination von Vorgaben wie etwa dem AI Act sehen. Das Paket umfasst Änderungen und Anpassungen unterschiedlicher Rechtsrahmen, so auch einige Bestimmungen des AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Inhaltliche Änderungen betreffen einerseits die Verpflichtung zur Sicherstellung von KI-Kompetenz (Art 4), welche nunmehr nicht Unternehmen bzw. Einrichtungen selbst treffen soll, sondern die Kommission und die Mitgliedstaaten sind dazu angehalten, Anbieter und Betreiber zur Sicherstellung eines angemessenen Maßes an KI-Kompetenz zu unterstützen. Ebenso stellt die Kommission eine Verzögerung der Anwendbarkeit der Hochrisiko-KI-Bestimmungen in Aussicht, welche mit 2. August 2026 bzw 2. August 2027 Anwendung erlangen sollten. Grund ist das Fehlen von entsprechenden Standards, die eigentlich bis August 2025 zu setzen waren und ohne die laut Kommission die Einhaltung der entsprechenden AI Act-Bestimmungen nicht möglich sei. Die Anwendbarkeit der Hochrisiko-KI-Bestimmungen soll sich um bis zu maximal 16 Monate verzögern, wobei die Vorschriften Geltung erlangen, sobald die Kommission die Verfügbarkeit der erforderlichen Standards und Unterstützungsinstrumente bestätigt.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:2&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus enthält der Vorschlag einen neuen Art 4a, der die Verarbeitung sensibler personenbezogener Daten zur Erkennung und Minderung von Bias unter gewissen Voraussetzungen ermöglicht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Kommissionsleitlinien und sonstige Materialen/Verhaltenskodizes&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zur Definition eines Systems der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 6. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118628&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 4. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118661&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Living Repository zur Förderung des Lernens und des Austausches über KI-Kompetenz vom 04. Februar 2025 (mit Update von April 2025): https://ec.europa.eu/newsroom/dae/redirection/document/112203&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Verhaltenskodex für KI-Modelle mit allgemeinem Verwendungszweck (GPAI Modelle) vom 10. Juli 2025:&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Transparenz: https://ec.europa.eu/newsroom/dae/redirection/document/118120&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Urheberrecht: https://ec.europa.eu/newsroom/dae/redirection/document/118115&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Sicherheit: https://ec.europa.eu/newsroom/dae/redirection/document/118119&amp;lt;/mark&amp;gt;  &lt;br /&gt;
*&amp;lt;mark&amp;gt;Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act vom 18. Juli 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118340&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;Leitlinien und Meldevorlagen zur Meldung schwerwiegender KI-Vorfälle gemäß Art 73 AI Act (&#039;&#039;Entwurf, noch in Ausarbeitung&#039;&#039;): https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; AI Act Service Desk. Frequently Asked Questions (FAQs): https://ai-act-service-desk.ec.europa.eu/en/faq.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act)&amp;lt;mark&amp;gt;&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024) &amp;lt;mark&amp;gt;(2. Auflage 2026, iE)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schefzig/Kilian,&#039;&#039; BeckOK KI-Recht&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Hochrangige Expertengruppe für Künstliche Intelligenz,&#039;&#039; Ethik-Leitlinien für eine vertrauenswürdige KI (2019), https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425&amp;lt;/mark&amp;gt;&lt;br /&gt;
* [https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0 Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA)]&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4292</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4292"/>
		<updated>2025-11-25T20:14:54Z</updated>

		<summary type="html">&lt;p&gt;Walter: Einige kleine sprachliche und Typo-Korrekturen&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. Februar 2025 (schrittweise)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen von KI-Systemen &lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD, &amp;lt;mark&amp;gt;von der Kommission zurückgezogen&amp;lt;/mark&amp;gt;)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modelle (general purpose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB Verarbeitung zur Vermeidung von Verzerrungen, Art 10), regulatory sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (zB Anbieter- und Betreiberpflichten, Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz (eingeschränkt); reine Forschungszwecke &lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) gelten seit 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (zB Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|Gewährleistung von Transparenz und Verantwortlichkeit&lt;br /&gt;
|Pflichten für Betreiber (professionelle Nutzer*innen) und Anbieter&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (zB Chatbots, Deepfakes)&lt;br /&gt;
|Informationspflichten nach der DSGVO&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
&amp;lt;mark&amp;gt;Der AI Act ist die erste EU-weite, sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) und&amp;lt;/mark&amp;gt; folgt dabei primär einem produktsicherheitsrechtlichem Ansatz, dessen vorrangiges Regulierungsziel die Sicherheit von KI-Systemen und Modellen ist. &amp;lt;mark&amp;gt;Damit ist er Teil des sog [https://single-market-economy.ec.europa.eu/single-market/goods/new-legislative-framework_en?prefLang=de &amp;quot;New Legislative Framework&amp;quot;] (NLF), einem unionsrechtlichen Maßnahmenpaket zur Produktregulierung, das auf die Verbesserung der Marktüberwachung abzielt und sich durch einheitliche Kernelemente auszeichnet (zB Konformitätsbewertungsverfahren, Selbstregulierung, Standards und einheitliche Anforderungen). Im Rahmen des Gesetzgebungsprozesses wurde der Rechtsakt - insbesondere auf Bestreben des Europäischen Parlaments - um menschenrechtliche Aspekte und Betroffenenrechte erweitert, weshalb der AI Act mittlerweile deutlich über reines Produktsicherheitsrecht hinausgeht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modelle&#039;&#039;&#039; bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot;.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei handelt es sich um &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;ableitet&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot;&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe Art 3 Z 1 AI Act. Hervorhebungen nicht im Original. &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;abzuleiten&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Hingegen soll sich nach ErwGr 12 der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen [...]&amp;quot;, womit auf eine Abgrenzung von KI von herkömmlichen Softwarelösungen und Programmierungsansätzen abgezielt wird.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zusammenfassend möchte der EU-Gesetzgeber mit dieser Definition einerseits Rechtssicherheit schaffen, allerdings immer noch Raum für technologischen Fortschritt lassen, um den Anwendungsbereich des AI Act nicht von Vornherein vor potenziellen künftigen technologischen Entwicklungen zu verschließen.&amp;lt;/mark&amp;gt; Dennoch wurde die Definition als zu vage und unbestimmt empfunden. So wurden diverse Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Um den Begriff des KI-Systems also zu konkretisieren und Unsicherheiten zu beseitigen, sollte die Kommission gemäß Art 96 Abs 1 lit f AI Act Leitlinien vorlegen, und damit eine einheitliche Anwendung des Regelwerks fördern sowie Rechtsicherheit gewährleisten&amp;lt;/mark&amp;gt;.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle, &amp;lt;mark&amp;gt;einfache Datenverarbeitungssysteme, auf klassische Heuristik gestützte Systeme, einfache Vorhersagesysteme etc.&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Eine Positiv-Liste, welche Systeme jedenfalls unter den KI-Begriff fallen, enthalten die Leitlinien allerdings nicht. Sie orientieren sich vielmehr an den 7 Kernelementen der KI-Definition gemäß Art 3 Z 1 AI Act. Es wird überdies betont, dass nicht alle Elemente kontinuierlich in den beiden Hauptphasen des Lebenszyklus von KI (&amp;quot;building phase&amp;quot; / &amp;quot;pre-deployment&amp;quot; oder &amp;quot;use phase&amp;quot; / &amp;quot;post-deployment&amp;quot;) vorhanden sein müssen und, dass sich die Leitlinien kontinuierlich weiterentwickeln sollen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Folgende Konkretisierungen der KI-Definition und Beispiele sind den Leitlinien zu entnehmen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Elemente der KI-Definition&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Erläuterungen in den Leitlinien der EU-Kommission&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Maschinengestütztes System&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;KI benötigt Hardware- und Softwarekomponenten&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB eine Hardwareinfrastruktur wie processing units, Speicher, Input/Output-Schnittstellen und Software (Code, Programme etc.)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;autonomer Betrieb (in unterschiedlichem Grade)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erfordert einen gewissen Grad an Unabhängigkeit von menschlichem Eingreifen, wobei Systeme, die vollständig manuelle menschliche Interaktion erfordern, nicht darunter fallen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Umfasst sind Systeme, die zwar einen manuellen Input erfordern, aber von selbst einen Output generieren (zB Chatbots)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anpassungsfähigkeit nach Betriebsaufnahme (optional)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Selbstlernfähigkeiten (nicht zwingend erforderlich); darunter versteht man, ob sich das Verhalten des Systems während seiner Verwendung anpassen oder verändern kann (zB automatisches Lernen, wie Muster oder Beziehungen zwischen Daten erkannt werden können).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungsfähigkeit&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Inferenz, Schlüsseleigenschaft; dient der Abgrenzung von KI-Systemen von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen. Nicht umfasst sind hingegen Systeme, die nur von Menschen programmierten Regeln folgen und automatisiert Operationen ausführen. Die Ableitungsfähigkeit bedeutet daher die Erlernung allgemeiner Konzepte statt fester, vorprogrammierter Regeln.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Bsp: maschinelles Lernen, logik- und wissensgestützte Systeme (Schlussfolgerungen mittels Deduktion oder Induktion)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitung aus Eingaben für implizite oder explizite Ziele&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;Ableitungen müssen nach entweder:&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;expliziten Zielen (klar definierte, direkt in den Code programmierte Ziele, Optimierung von Kostenfunktionen, Wahrscheinlichkeitsberechnung) oder&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;impliziten Zielen (Ableitung des Ziels aus dem Verhalten oder den dahinterstehenden Annahmen des Systems; bspw Trainingsdaten oder Interaktion des Systems mit Umwelt) erfolgen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erzeugung von Ausgaben&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ausgabe-Arten umfassen unter anderem&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Vorhersagen (Schätzungen unbekannter Werte basierend auf komplexen Datenmustern)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Inhalte (Texte, Bilder, Videos oder Musik)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Empfehlungen (Vorschläge für Maßnahmen, Produkte oder Dienstleistungen, die hochgradig personalisiert sind und Massendaten nutzen).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Entscheidungen (Vollautomatisierte Schlussfolgerungen oder Auswahlentscheidungen, die Prozesse automatisieren, die üblicherweise menschlichem Urteilsvermögen vorbehalten sind)&amp;lt;/mark&amp;gt; &lt;br /&gt;
|&amp;lt;mark&amp;gt;zB die generierten Inhalte von Chatbots, Produktvorschläge, Echtzeit-Vorhersagen, Auswahlentscheidungen&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Beeinflussung physischer oder virtueller Umgebungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Frage, ob das System einen aktiven Einfluss auf die Umgebungen hat, in denen es eingesetzt wird, sei es auf materielle physische Objekte oder auf digitale Räume&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;zB Roboterarm, Software-Ökosysteme, Datenströme&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}  &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI-Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit aus, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). &amp;lt;mark&amp;gt;Man kann hier den Vergleich zu einem KFZ ziehen, wobei das KI-Modell den Motor darstellt, der die eigentliche &amp;quot;Arbeit&amp;quot; leistet. Um jedoch fahrtüchtig zu sein, bedarf es nicht nur eines Motors, sondern das Fahrzeug benötigt darüber hinaus eine Karosserie, Räder, ein Lenkrad etc. Das wiederum bezeichnet das KI-System, welches das Modell erst durch seine Schnittstellen, seine Benutzeroberfläche etc. &amp;quot;fahrtüchtig&amp;quot; und damit nutzbar macht.&amp;lt;/mark&amp;gt; Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen &amp;quot;Nutzer&amp;quot;) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder sich in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollen:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität), unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act trat am &#039;&#039;&#039;1. August 2024&#039;&#039;&#039; in Kraft und wird generell am &#039;&#039;&#039;2. August 2026&#039;&#039;&#039; anwendbar (Art 113 AI Act). Gestaffelt erlangen einige Bestimmungen jedoch bereits vorab oder danach Geltung:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab &#039;&#039;&#039;2. August 2025&#039;&#039;&#039;&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem &#039;&#039;&#039;2. August 2027&#039;&#039;&#039;&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 111 Abs 2 AI Act enthält dabei jedoch eine sog „grandfathering“-Klausel, nach welcher der AI Act für Betreiber von Hochrisiko-KI-Systemen, die vor dem 2. August 2026 in Verkehr gebracht oder in Betrieb genommen wurden, nur dann gilt, wenn diese Systeme danach in ihrer Konzeption erheblich verändert wurden.&amp;lt;ref&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 23, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Verpflichtung zur Maßnahmenergreifung gilt für Betreiber und Anbieter gleichermaßen und ist ferner unabhängig von der Risikoklasse der infragestehenden KI-Anwendung.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Unter KI-Kompetenz versteht man grundsätzlich &amp;quot;die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.&amp;quot;&amp;lt;ref&amp;gt;Vgl die Definition in Art 3 Z 56 AI Act.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dies umfasst die notwendigen Kompetenzen, um fundierte Entscheidungen über KI-Systeme zu treffen, technische Elemente zu verstehen sowie korrekt anzuwenden, die Auswirkungen von KI-basierten Entscheidungen auf Betroffene zu verstehen und KI-generierte Ausgaben angemessen zu interpretieren.&amp;lt;ref name=&amp;quot;:1&amp;quot;&amp;gt;Vgl ErwGr 20 AI Act. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Dazu gehört auch, den einschlägigen Akteuren der KI-Wertschöpfungskette jene erforderlichen Kenntnisse zu vermitteln, um die Einhaltung und Durchsetzung der Vorschriften des AI Act zu gewährleisten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Weitere Konkretisierungen oder zwingende Mindestvorgaben für die Sicherstellung der KI-Kompetenz enthält der AI Act allerdings nicht und betont sogar, dass die Konzepte der KI-Kompetenz in Bezug auf den jeweiligen Kontext unterschiedlich sein können.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:1&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Die EU-Kommission hat daher ein [https://digital-strategy.ec.europa.eu/de/library/living-repository-foster-learning-and-exchange-ai-literacy &amp;quot;Living Repository&amp;quot;] angelegt, in dem Unternehmen ihre Praktiken in Bezug auf KI-Kompetenz eingetragen haben. Das Repository wird laufend ergänzt, ist jedoch nicht rechtsverbindlich. Weiters bilden die darin enthaltenen Praktiken keine Garantie zur Compliance mit Art 4 AI Act, allerdings stellen sie eine gute Orientierung dar, welche Maßnahmen zur Sicherstellung von KI-Kompetenz in unterschiedlichen Branchen bereits ergriffen werden. Häufig genannte Praktiken umfassen:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne eLearning-Plattformen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;interne Weiterbildungen und Trainingsprogramme,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Kenntnis-basierte Schulungen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Video-/Podcast-Reihen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;spielebasierte Trainings,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Erstellung von KI-Verhaltenskodizes und Risikobewertungssystemen,&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;eigene Chatbots zum Training im Umgang mit Sprachmodellen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Denkbar ist überdies die Teilnahme an externen Fortbildungen und Schulungen, die Entwicklung von internen Richtlinien (&amp;quot;KI-Guidelines&amp;quot;) oder die Schaffung von sog &amp;quot;KI-Beauftragten&amp;quot; in der Organisation. Ob die Schulungsmaßnahmen fortlaufend zu erfolgen haben, ist rechtlich nicht vorgeschrieben, wird allerdings anzunehmen sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Dieser Ansicht folgend: &#039;&#039;Siglmüller&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 4 KI-Kompetenz Rz 5.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Ebensowenig sind die genauen Inhalte der Kompetenzvermittlungsmaßnahmen definiert. Es kann jedenfalls davon ausgegangen werden, dass diese zielgruppengerecht und zugeschnitten auf unterschiedliche Bedürfnisse erfolgen sollten. Weiters werden sie sich bei manchen Branchen, KI-Einsatzgebieten oder Personengruppen nicht lediglich auf rechtliche oder technische Anforderungen beschränken, sondern ebenso soziale und ethische Komponenten umfassen. Bei der Entwicklung und Nutzung von GPAI-Modellen wird beispielsweise die Vermittlung von Kenntnissen im Zusammenhang mit Urheberrecht, Datenschutz, &amp;quot;Bias&amp;quot; (Verzerrungen) oder &amp;quot;Halluzinationen&amp;quot; (erfundene falsche Ausgaben) sinnvoll sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger,&#039;&#039; Wissenskultur im KI-Zeitalter – eine Auseinandersetzung mit der KI-Kompetenz nach Art 4 AI Act und ihren praktischen Implikationen, ZIIR 2025, 250.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Die EU-Kommission hat darüber hinaus eine [https://digital-strategy.ec.europa.eu/de/faqs/ai-literacy-questions-answers &amp;quot;FAQ-Seite&amp;quot;] mit Fragen und Antworten zur KI-Kompetenz angelegt, um einen besseren Überblick über die Anforderungen zu geben.&amp;lt;/mark&amp;gt;    &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten, &amp;lt;mark&amp;gt;da sie besonders schädlich sind, enormes Missbrauchspotenzial aufweisen und im Widerspruch zu europäischen Grundrechten und Grundfreiheiten stehen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 28 AI Act.&amp;lt;/mark&amp;gt; MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt; (Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt; Folgende Praktiken sind davon umfasst: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&amp;lt;mark&amp;gt;Praktik&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Nicht erfasste Praktiken&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsgrundlage&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Unterschwellige Beeinflussung außerhalb des Bewusstseins oder manipulative/täuschende Techniken&#039;&#039;&#039;, wodurch die freie Entscheidungsfähigkeit von Personen beeinträchtigt wird und ein Schaden mit hinreichender Wahrscheinlichkeit eintritt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ableitung sensibler Informationen aus Gehirnen von Nutzern über Maschine-Gehirn-Schnittstellen&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 29 AI Act sowie Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 66.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Chatbots, die zur Selbstverletzung verleiten&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 87.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Unterschwellige visuelle oder auditive Reize bzw generelle sensorische Manipulation&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 65 und 68.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erlaubt ist hingegen der Einsatz eines KI-Systems, das personalisierte Empfehlungen auf der Grundlage transparenter Algorithmen und Nutzerpräferenzen verwendet, und sich nicht absichtlich manipulativer Techniken bedient.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 128.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit a&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Ausnutzen der Vulnerabilität/Schutzbedürftigkeit&#039;&#039;&#039; aufgrund des Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine KI-Begleit-App, die durch gewisse Sprachmuster und Verhaltensweisen gezielt emotionale Abhängigkeiten und ungesunde Bindungen bei älteren Menschen erzeugt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-gestütztes Spielzeug, das Kinder zu riskanten Herausforderungen ermutigt oder durch süchtig machende Techniken zu übermäßigem Spielen anregt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte &amp;quot;Grooming-Praktiken&amp;quot; (gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht), um Mädchen mit Behinderung im Internet anzusprechen und zu manipulieren&amp;lt;ref&amp;gt;Vgl Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 88 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Kinder beim Lernen einer Fremdsprache durch den Einsatz unterschwelliger Techniken unterstützen soll, sofern sie transparent arbeitet und die Nutzerautonomie wahrt.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Benommenheit und Ermüdung bei Fahrern erkennen und sie im Einklang mit den Sicherheitsvorschriften mit Warnmeldungen auf Ruhepausen hinweisen, gelten ebenso nicht als Ausnutzung von Vulnerabilitäten.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 130ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit b&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social scoring&#039;&#039;&#039; (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Verwendung eines KI-Systems zur Schätzung der Betrugswahrscheinlichkeit bei Empfängern von Haushaltszulagen durch das Sozialamt, das sich auf Merkmale stützt, die in sozialen Kontexten ohne offensichtlichen Zusammenhang mit oder Relevanz für die Bewertung von Betrug erhoben oder abgeleitet werden, wie zB ein Ehepartner mit einer bestimmten Staatsangehörigkeit oder ethnischen Herkunft, der Besitz eines Internetanschlusses, das Verhalten auf sozialen Plattformen oder die Leistung am Arbeitsplatz etc.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems durch eine öffentliche Stelle, um für die Früherkennung gefährdeter Kinder anhand von Kriterien wie der psychischen Gesundheit und Arbeitslosigkeit der Eltern, aber auch anhand von aus verschiedenen Kontexten abgeleiteten Informationen über das soziale Verhalten der Eltern Familienprofile zu erstellen. Auf der Grundlage der erzielten Bewertung werden Familien für Kontrollen ausgewählt und als „gefährdet“ geltende Kinder werden aus ihren Familien genommen, unter anderem auch in Fällen geringfügiger Übertretungen seitens der Eltern, wie zB gelegentlich verpasste Arzttermine oder verhängte Verkehrsstrafen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Eine Regierung führt ein umfassendes KI-gestütztes System ein, das die Bürgerinnen und Bürger auf der Grundlage ihres Verhaltens in verschiedenen Lebensbereichen wie sozialen Interaktionen, Online-Aktivitäten, Kaufgewohnheiten und Pünktlichkeit bei der Begleichung von Rechnungen überwacht und einstuft. Menschen mit einer niedrigeren Bewertung müssen damit rechnen, dass sie eingeschränkten Zugang zu öffentlichen Dienstleistungen erhalten, höhere Zinsen auf Kredite zahlen und auf Reisen und bei der Suche nach einer Wohnung oder sogar einem Arbeitsplatz Schwierigkeiten haben.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 166 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Bonitätsprüfung natürlicher Personen auf Basis persönlicher Merkmale wie dem Einkommen vor Vergabe eines Kredits.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basierte Erhebung von Geschwindigkeitsüberschreitungen oder hochriskantem Fahrverhalten, die zur Erhöhung der KFZ-Versicherungsprämien führen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-gestützte gezielte kommerzielle Werbung fällt nicht in den Anwendungsbereich, wenn sie auf relevanten Daten (z. B. Nutzerpräferenzen) beruht, im Einklang mit den Rechtsvorschriften der Union über Verbraucherschutz, Datenschutz und digitale Dienste erfolgt und nicht zu einer Schlechterstellung oder Benachteiligung führt, die in keinem angemessenen Verhältnis zur Tragweite des sozialen Verhaltens des Nutzers steht (z. B. ausbeuterische und unfaire differenzierte Preisgestaltung).&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 177.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit c&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Bewertung des Risikos, dass eine Person eine Straftat&#039;&#039;&#039; begeht (ausschließlich aufgrund von Profiling)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Eine Polizeidienststelle verwendet KI-gestützte Risikobewertungsinstrumente, um das Risiko zu bewerten, dass kleine Kinder und Jugendliche an „künftigen Gewalttaten und Eigentumsdelikten“ beteiligt sein werden. Das System bewertet Kinder auf der Grundlage ihrer Beziehungen zu anderen Menschen und deren vermeintlichen Risikoniveaus, dh es wird eventuell davon ausgegangen, dass bei Kindern ein höheres Risiko für die Begehung von Straftaten besteht, einfach weil sie mit einer anderen Person wie einem Geschwisterkind oder einem Freund verbunden sind, bei der eine hohe Risikobewertung vorliegt. Das Risikoniveau der Eltern kann sich ebenfalls auf das Risikoniveau eines Kindes auswirken.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 202.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Standortbezogene oder geodatenbasierte Vorhersagen oder ortsbezogene Verbrechensvorhersagen (zB KI-System zur Berechnung der Kriminalitätswahrscheinlichkeit in bestimmten Stadtgebieten oder von Schmuggelrouten)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur Unterstützung der durch Menschen durchgeführten Bewertung, die sich auf objektive und überprüfbare Tatsachen stützt, die in Zusammenhang mit einer kriminellen Aktivität stehen (zB Profiling zur Vorhersage gefährlichen Verhaltens in einer Menschenmenge, KI-basiertes Profiling von Personen, gegen die bereits ein Verdacht besteht, der auf mehreren überprüfbaren, objektiven Tatsachen beruht).&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-basiertes Profiling in Bezug auf juristische Personen&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme zur individuellen Vorhersage von Ordnungswidrigkeiten (zB Bagatellverkehrsdelikte)&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 212 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit d&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Erstellung/Erweiterung von &#039;&#039;&#039;Datenbanken&#039;&#039;&#039; zur Gesichtserkennung durch &#039;&#039;&#039;ungezieltes Auslesen von Gesichtsbildern&#039;&#039;&#039;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen für Gesichtserkennungssoftware sammelt Bilder von Gesichtern, die mit einem „automatisierten Bildausleser“, der das Internet durchsucht und Bilder mit menschlichen Gesichtern erkennt, aus sozialen Medien (zB Facebook, X) ausgelesen wurden. Der Bildausleser sammelt diese Bilder mit allen damit verbundenen Informationen (wie der Quelle des Bildes (URL), der Geolokalisierung und manchmal den Namen der einzelnen Personen). Die Gesichtsmerkmale werden dann aus den Bildern extrahiert und in mathematische Darstellungen umgewandelt, die für die Indexierung und den künftigen Vergleich mit Hashtags versehen werden. Wenn ein Nutzer das Bild einer Person in das KI-System hochlädt, wird dieses System bestimmen, ob dieses Bild mit einem Gesicht in der Datenbank übereinstimmt.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 232.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Das ungezielte Auslesen anderer biometrischer Daten als Gesichtsbilder (zB Stimmaufnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Gesichtsbilddatenbanken, die nicht für die Erkennung von Personen verwendet werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die Gesichtsbilder aus dem Internet sammeln, um KI-Modelle zur Erzeugung neuer Bilder fiktiver Personen zu entwickeln&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit e&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Emotionserkennungssysteme&#039;&#039;&#039; am Arbeitsplatz oder in Bildungseinrichtungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das beispielsweise aus Gesten, Stirnrunzeln oder fehlendem Lächeln ableitet, dass ein Mitarbeiter unglücklich, traurig oder gegenüber den Kunden wütend ist&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Systeme, die aus Stimmführung oder Körpersprache ableiten, dass ein Schüler zornig und im Begriff ist, gewalttätig zu werden&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Emotionen aus Tastenanschlägen (Art des Tippens), Gesichtsausdrücken, Körperhaltungen oder Bewegungen ableitet, beruht auf biometrischen Daten und fällt in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die den emotionalen Ton in hybriden Arbeitsteams überwachen, indem sie Emotionen aus Stimm- und Bildaufnahmen hybrider Videokonferenzen erkennen und ableiten, was in Regel der Förderung des sozialen Bewusstseins, des Managements emotionaler Dynamik und der Konfliktverhütung dienen würde&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung eines KI-Systems bei Online-Prüfungen zur Erkennung von Emotionen wie Erregungs- und Angstzustände&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung zur Bewertung des Wohlbefindens, des Motivationsniveaus und der Arbeits- oder Lernzufriedenheit von Studierenden oder Arbeitnehmern.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der Einsatz von KI-Erkennungssystemen, um auf die Ermüdung eines Berufspiloten oder -fahrers zu schließen, ihn zu warnen und ihm zu empfehlen, zur Vermeidung von Unfällen Pausen einzulegen, da Emotionserkennung keine physischen Zustände wie Schmerzen oder Ermüdung einschließt&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das aus schriftlichen Texten (Analysen von Inhalt und Stimmung) Emotionen ableitet, um den Stil oder den Ton eines bestimmten Artikels zu bestimmen, beruht nicht auf biometrischen Daten und fällt daher nicht in den Anwendungsbereich des Verbots&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Werden Emotionserkennungssysteme nur zu persönlichen Schulungszwecken eingesetzt, sind sie zulässig, sofern die Ergebnisse nicht Personen mit Personalverantwortung zur Verfügung gestellt werden und keine Auswirkungen auf das Arbeitsverhältnis haben&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die durch eine Bildungseinrichtung erfolgende Verwendung einer KI-gestützten Software zur Verfolgung der Augenbewegungen bei Online-Prüfungen Studierender, um den Fixierungspunkt und die Bewegung der Augen zu verfolgen (um beispielsweise zu erkennen, ob unerlaubtes Material verwendet wird), ist nicht verboten, da das System Emotionen weder erkennt noch ableitet&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Emotionserkennung aus medizinischen Gründen zur Unterstützung von Arbeitnehmern oder Studierenden mit Autismus und zur Verbesserung der Barrierefreiheit für blinde oder gehörlose Menschen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 249 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit f&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Kategorisierung,&#039;&#039;&#039; Ableitung von sensiblen Daten (religiöse Weltanschauung, politische Einstellung)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Ein KI-System, das Personen, die auf einer Plattform sozialer Medien aktiv sind, nach ihrer angenommenen politischen Ausrichtung kategorisiert, indem es die biometrischen Daten der von ihnen auf die Plattform hochgeladenen Fotos analysiert, um ihnen gezielte politische Nachrichten zu übermitteln&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;ein System zur biometrischen Kategorisierung, das für sich in Anspruch nimmt, die religiöse Ausrichtung einer Person aus ihren Tätowierungen oder ihrem Gesicht ableiten zu können.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 280 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;KI-Systeme, die mit der Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze, auch zu Strafverfolgungszwecken, befasst sind (zB bei Verdacht auf Darstellungen sexuellen Kindesmissbrauchs)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;die Kategorisierung von Patienten, bei der Bilder nach ihrer Haut- oder Augenfarbe verwendet werden, für medizinische Diagnosen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 284 ff.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit g&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Biometrische Echtzeit-Fernidentifizierungssysteme&#039;&#039;&#039; in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die polizeiliche Verwendung von Systemen zur biometrischen Echtzeit-Fernidentifizierung zu dem Zweck, Ladendiebe zu identifizieren und ihre Gesichtsbilder mit Kriminaldatenbanken zu vergleichen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 328.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&lt;br /&gt;
* &amp;lt;mark&amp;gt;Die Nutzung von Echtzeit-Gesichtserkennungstechniken durch die Polizei nach einem schweren Terroranschlag auf einen Weihnachtsmarkt mit zwölf Toten, um den Täter zu identifizieren und festzustellen, wohin er flieht. In diesem Zusammenhang nutzen sie auch die Echtzeit-Gesichtserkennungstechnik des nahe gelegenen Bahnhofs und der Zielbahnhöfe der Züge, die kurz nach dem Angriff von dort abgehen.&amp;lt;ref&amp;gt;Vgl Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz, Rz 354.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Art 5 Abs 1 lit h&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&amp;lt;br /&amp;gt;&lt;br /&gt;
Einige dieser Praktiken sind darüber hinaus bereits nach anderen Rechtsvorschriften verboten, so beispielsweise gewisse manipulative und täuschende Techniken als &amp;quot;dark patterns&amp;quot; nach dem [[Digital Services Act (DSA)|Digital Services Act]] (gilt nur für bestimmte Plattform-Anbieter) oder die Verarbeitung biometrischer Daten zur Identifizierung einer Person nach Art 9 Abs 1 DSGVO, sofern keine der in Abs 2 genannten Ausnahmen vorliegt. Gemäß der neuen Plattformarbeitsrichtlinie&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Richtlinie (EU) 2024/2831 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit, ABl L 11. 11. 2024.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;, die bis Dezember 2026 in nationales Recht umzusetzen ist, ist überdies der Einsatz von automatisierten Überwachungs- und Entscheidungssystemen zur Erfassung personenbezogener Daten über den emotionalen oder psychischen Zustand einer Person (Emotionserkennung) verboten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;MwN &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2024) Art 5 Rz 104.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act klassifiziert Hochrisiko-KI-Systeme in Art 6. Dabei kennt er zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige&amp;quot; Hochrisiko-KI-Systeme bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei folgenden Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder stellt selbst ein solches Produkt dar&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten: bspw biometrische Identifizierung, kritische Infrastrukturen, grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle, Justiz und demokratische Prozesse).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis einer Entscheidungsfindung, an der das System beteiligt ist, wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot; &amp;lt;mark&amp;gt;Als Profiling gilt dabei iSd Art 4 Abs 4 DSGVO jede automatisierte Verarbeitung personenbezogener Daten, die darin besteht, bestimmte persönliche Aspekte einer Person zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, Gesundheit, persönliche Vorlieben, Zuverlässigkeit, Verhalten etc. zu analysieren oder vorherzusagen.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
&amp;lt;mark&amp;gt;Die Europäische Kommission hat im Rahmen von Public Consultations unter anderem auch Rückmeldungen zu Anforderungen an Hochrisiko-KI-Systeme eingeholt, die eine Grundlage für Leitlinien bilden sollen, welche im Februar 2026 veröffentlicht werden sollen.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;European Commission, Commission launches public consultation on high-risk AI systems, https://digital-strategy.ec.europa.eu/en/news/commission-launches-public-consultation-high-risk-ai-systems (Stand 6.6.2025).&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== &amp;lt;mark&amp;gt;Pflichten für Betreiber von Hochrisiko-KI-Systemen&amp;lt;/mark&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
===== &amp;lt;mark&amp;gt;Betreiberpflichten nach Art 26 AI Act&amp;lt;/mark&amp;gt; =====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis &amp;lt;mark&amp;gt;([https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#KI-Kompetenz/AI_literacy_(Art_4_AI_Act) &amp;quot;KI-Kompetenz&amp;quot;] nach Art 4&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 40. &amp;lt;/ref&amp;gt;)&amp;lt;/mark&amp;gt; verfügen und ihnen die erforderliche Unterstützung zukommen lassen. &lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von automatisiert erzeugten &#039;&#039;&#039;Protokollen&#039;&#039;&#039; &amp;lt;mark&amp;gt;für einen Zeitraum von zumindest 6 Monaten (wobei hier entgegenstehende datenschutzrechtliche Regelungen vorgehen würden&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl &#039;&#039;Wendt&#039;&#039; in &#039;&#039;Wendt/Wendt,&#039;&#039; Das neue Recht der Künstlichen Intelligenz&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025) § 7 Pflichten bei Hochrisiko-KI-Systemen Rz 42.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;)&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, vor Verwendung oder Inbetriebnahme des Hochrisiko-KI-Systems am Arbeitsplatz. &amp;lt;mark&amp;gt;Dies umfasst sowohl den Einsatz von &amp;quot;eingebetteten&amp;quot; als auch &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Weiters sind die Mitwirkungspflichten des Betriebsrats zu berücksichtigen (vgl §§ 96 f ArbVG). Nicht umfasst sind wahrscheinlich Informationspflichten gegenüber Bewerbern, da diese tendenziell nicht unter den von dieser Bestimmung geforderten &amp;quot;Arbeitnehmer-Begriff&amp;quot; fallen&amp;lt;/mark&amp;gt;.&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet. &amp;lt;mark&amp;gt;Diese Bestimmung gilt lediglich für den Einsatz von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen nach Art 6 Abs 2 iVm Anhang III.Die danach mitzuteilende Information sollte die Zweckbestimmung und die Art der getroffenen Entscheidung beinhalten (vgl ErwGr 93) sowie - nach einer hier vertretenen Auffassung - eine vorab Information über das Recht auf Erklärung nach Art 86 AI Act, welches von KI-Entscheidungen Betroffenen das Recht zugesteht, unter gewissen Voraussetzungen vom Betreiber eine klare und aussagekräftige Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess sowie zu den wichtigsten Elementen der getroffenen Entscheidung zu erhalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Siehe die entsprechende Argumentationslinie im Detail: &#039;&#039;Research Institute&#039;&#039;, Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025) 100 ff, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.  &amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Art 27 Abs 4 macht überdies die Verzahnung der Grundrechte-Folgenabschätzung (GRFA) mit anderen Folgenabschätzungen deutlich und schreibt bspw vor, dass bei Vorliegen einer Datenschutz-Folgenabschätzung nach Art 35 DSGVO die GRFA diese ergänzen bzw in diese integriert werden solle.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Piltz/Zwerschke&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 27 Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme Rz 32.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Sowohl die Verpflichtungen nach Art 26 als auch die Durchführung einer GRFA nach Art 27 treffen den Betreiber unabhängig davon, ob jemand (bspw Betroffene) deren Einhaltung einfordern. Im Unterschied dazu enthält der AI Act in den Artt 85 ff sog &amp;quot;Betroffenenrechte&amp;quot;, die aktiv von betroffenen Personen geltend zu machen sind. Dazu zählt insbesondere das [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Recht auf Erklärung nach Art 86], welches das einzige Betroffenenrecht darstellt, das direkt gegen den Betreiber durchsetzbar ist.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführer oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn die genannten Personen ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen;&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt;&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das &#039;&#039;nicht&#039;&#039; als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird.&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter (Erstanbieter) nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat jedoch mit dem neuen Anbieter zusammenzuarbeiten, insb Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI Act muss beachtet werden, dass die Rollenverteilung eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters erfolgt, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden &amp;lt;mark&amp;gt;sowie den Anforderungen an die Barrierefreiheit genügen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots, &amp;lt;mark&amp;gt;Sprachassistenten, Social Bots)&amp;lt;/mark&amp;gt;, sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Pflicht kann entfallen, wenn die Interaktion mit dem KI-System aus Sicht einer angemessen informierten, aufmerksamen und verständigen Person offensichtlich ist oder beim Einsatz von KI-Systemen, die für die Strafverfolgung zugelassen sind.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 43.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
*&lt;br /&gt;
!&amp;lt;mark&amp;gt;Beispiele&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 40.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;&#039;&#039;&#039;Chatbots&#039;&#039;&#039; können durch einen textlichen Hinweis zu Beginn des Gesprächs oder ein dauerhaft angezeigtes grafisches Symbol vorgestellt werden.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Bei &#039;&#039;&#039;Voicebots&#039;&#039;&#039; kommt eine der Interaktion vorausgehende Ansage, welche auf den KI-Einsatz hinweist, in Betracht.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;&#039;&#039;&#039;Social Bots&#039;&#039;&#039; können eine Information vor und mit jeder Interaktion des Bots in sozialen Netzwerken erfordern, da das System stets mit einem neuen Personenkreis in Interaktion tritt (zB AI-Influencer).&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Das KI-Büro hat am 5. November 2025 Arbeiten an einem Verhaltenskodex in Bezug auf die Kennzeichnung von KI-generierten Inhalten aufgenommen. Die entsprechenden Leitlinien werden in einem siebenmonatigen Prozess, der sich insbesondere durch die Einbindung von relevanten Stakeholdern und öffentliche Konsultationen auszeichnen soll, erarbeitet werden. Näheres unter: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Mögliche Methoden wären bspw Wasserzeichen, Metadatenidentifizierungen, Kryptografische Methoden (zB &amp;quot;Hashing&amp;quot;), Protokollierungsmethoden oder Fingerabdrücke.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl ErwGr 133 Satz 4 sowie mwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 84 ff.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Denkbar ist bspw eine Umsetzung in Form eines sichtbaren Wasserzeichens, eines textlichen Hinweises, durch Hinzufügen von sog C2PA-Content Credentials&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Die C2PA („Coalition forContent Provenanceand Authenticity“) ist ein branchenübergreifendes Non-profit-Projekt, das die Entwicklung gemeinsamer technischer Standards zur Ermittlung der Herkunft von digitalen Inhalten zum Ziel hat. Siehe dazu https://c2pa.org/. So hat sich bspw LinkedIn bei der Erkennung KI-generierter Inhalte diesen Standards unterworfen: https://www.linkedin.com/help/linkedin/answer/a6282984. MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 150.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;oder bei Audioinhalten durch eine Ansage zu Beginn des Audioinhalts.&amp;lt;ref&amp;gt;&#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 148 ff. &amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Diese Verpflichtung entfällt, wenn die betreffenden Inhalte vor ihrer Veröffentlichung einer menschlichen oder redaktionellen Kontrolle unterzogen wurden und eine Person die redaktionelle Verantwortung dafür trägt. Da die Anforderungen an die menschliche bzw redaktionelle Kontrolle nicht konkretisiert werden, unterwerfen sich bspw im journalistischen Bereich zahlreiche Medien freiwilligen Leitlinien (so etwa die [https://www.blm.de/files/pdf2/ki-leitlinien.pdf Leitlinien des Medienrats der Bayerischen Landeszentrale für neue Medien (BLM) zum Einsatz von Künstlicher Intelligenz im Journalismus]).&amp;lt;ref&amp;gt;MwN &#039;&#039;Merkle&#039;&#039; in &#039;&#039;Bomhard/Pieper/Wende,&#039;&#039; KI-VO. Künstliche Intelligenz-Verordnung (2025) Art. 50 Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme Rz 163 f.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als &amp;quot;KI-Systeme mit minimalem Risiko&amp;quot; bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Baustein/Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme in den risikobasierten Ansatz fallen (verbotene Systeme, Hochrisiko-KI-Systeme, Transparenzpflichten), unterliegen nur gewisse Modelle, nämlich GPAI-Modelle (in früheren Fassungen foundation models/Basismodelle) einer Sonderregulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei wird binär zwischen GPAI-Modelle ohne und GPAI-Modelle mit systemischem Risiko unterschieden. &lt;br /&gt;
&lt;br /&gt;
Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act),&lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über Fähigkeiten mit hohem Wirkungsgrad verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; beträgt. Dies dürfte zurzeit nur auf GPT-4 und potentiell Varianten von Gemini zutreffen. Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act).&lt;br /&gt;
* ein solches Risiko kann von Amts wegen/aufgrund einer Warnung von der Kommission in einer Entscheidung festgestellt werden (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc) &lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden. &lt;br /&gt;
* Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
* eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
* eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
* mögliche systemische Risiken auf Unionsebene bewerten und mindern,&lt;br /&gt;
* einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
* ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten.&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung dieser Verordnung beizutragen sollen (Art 56 Abs 1 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die Praxisleitfäden sollen mindestens die in Art 53-55 AI Act vorgesehenen Pflichten abdecken, darunter (Art 56 Abs 2 AI Act)&lt;br /&gt;
&lt;br /&gt;
* Mittel, mit denen sichergestellt wird, dass die in Art 53 Abs 1 lit a und b AI Act genannten Informationen (technische Dokumentation des Modells; Information und Dokumentation für die Integrierung des Modells) vor dem Hintergrund der Marktentwicklungen und technologischen Entwicklungen auf dem neuesten Stand gehalten werden&lt;br /&gt;
* die angemessene Detailgenauigkeit bei der Zusammenfassung der für das Training verwendeten Inhalte&lt;br /&gt;
* die Ermittlung von Art und Wesen der systemischen Risiken auf Unionsebene&lt;br /&gt;
* die Maßnahmen, Verfahren und Modalitäten für die Bewertung und das Management der systemischen Risiken auf Unionsebene&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von KI-Modellen mit allgemeinem Verwendungszweck sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 65 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein erster Entwurf eines solchen Leitfadens, ausgearbeitet von internationalen Expert*innen, wurde im November 2024 von der Europäischen Kommission präsentiert.&amp;lt;ref&amp;gt;&#039;&#039;European Commission&#039;&#039;, First Draft of the General-Purpose AI Code of Practice published, written by independent experts, https://digital-strategy.ec.europa.eu/en/library/first-draft-general-purpose-ai-code-practice-published-written-independent-experts (Stand 14. 11. 2024).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Für den am 10. Juli 2025 veröffentlichten Praxisleitfaden hat die EU-Kommissionen eine allgemeine [https://digital-strategy.ec.europa.eu/de/faqs/questions-and-answers-code-practice-general-purpose-ai &amp;quot;FAQ-Sektion&amp;quot;] angelegt, um zusätzliche Informationen bereitzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt. &lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der AILD und PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Stand November 2025 wurde in Österreich noch keine Behörde als zuständige Marktüberwachungsbehörde eingerichtet oder benannt. Bereits mit 2. November 2024 sind jedoch einige Behörden und öffentliche Stellen im Grundrechtsbereich gemäß Art 77 Abs 2 mit Aufsichts- und Durchsetzungsbefugnissen für Grundrechte insb im Zusammenhang mit Hochrisiko-KI ausgestattet worden, darunter die Volksanwaltschaft, die Datenschutzbehörde, die Arbeiterkammer, die Gleichbehandlungskommission, die Behindertenanwaltschaft, die KommAustria uvm.&amp;lt;ref&amp;gt;Mehr dazu unter: https://www.digitalaustria.gv.at/themen/kuenstliche-intelligenz/behoerden-art77-ai-act.html.&amp;lt;/ref&amp;gt; Dabei treffen auch die (künftig) zuständige Marktüberwachungsbehörde umfassende Kooperationspflichten, wie etwa die Meldung schwerwiegender Grundrechtsvorfälle in diesem Kontext an die genannten Einrichtungen (vgl Art 73 Abs 7 und Art 79 Abs 2 AI Act).&amp;lt;ref&amp;gt;Vgl &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 103, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Dazu hat die Kommission entsprechende Leitlinien zu veröffentlichen, die sich gerade in Ausarbeitung befinden.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung im Einzelfall betroffen sind,&lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (&amp;lt;mark&amp;gt;Recht auf Erläuterung der Entscheidungsfindung im Einzelfall gemäß Art 86 Abs 1 AI Act oder auch gemeinhin als &#039;&#039;&#039;&amp;quot;Recht auf Erklärung&amp;quot;&#039;&#039;&#039; bezeichnet&amp;lt;/mark&amp;gt;).&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157; &#039;&#039;Poindl/Müller,&#039;&#039; Das Recht auf Erklärung im AI Act. Betroffenenrecht mit Potenzial oder Papiertiger?, VbR 2025, 40. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Dabei ist es unerheblich, ob das KI-System die Entscheidung gänzlich autonom getroffen hat oder unterstützend beteiligt war, es darf lediglich keine untergeordnete Rolle im Entscheidungsprozess gespielt haben.&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Steht das Recht auf Erklärung zu, hat die betroffene Person einerseits das Recht, eine Erklärung über die Rolle des KI-Systems im Entscheidungsprozess zu verlangen, worunter einerseits Informationen über die zentralen Aufgaben des Systems im Entscheidungsprozess fallen (zB Zielgruppenselektion, Datenanalyse, Vorgabe der Entscheidung usw.) und andererseits auch der Grad dessen Beteiligung (gering, mittel, hoch), was umgekehrt auch den Grad menschlicher Beteiligung an der Entscheidungsfindung erfordert. Weiters sind die wichtigsten Elemente der Entscheidung zu beauskunften, beispielsweise Eingabedaten, wesentliche Entscheidungsgründe, kontrafaktische Erklärungen (inwiefern hätten andere Parameter zu einer anderen Entscheidungen geführt), die Auswirkungen der Entscheidung, die Gewichtung der einzelnen Kriterien und die Verarbeitungslogik (Informationen über die grobe Funktionsweise des KI-Systems, keine komplette Offenlegung des algorithmischen Codes). Weiters muss die Erklärung präzise, korrekt, verständlich, nicht zu technisch (keine komplexen mathematischen Formeln), aber dennoch vollständig sein.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letzter Referenzpunkt ist stets, ob die betroffene Person auf Basis der erlangten Informationen weitere Rechte geltend machen kann, da das Recht auf Erklärung auch oft als &amp;quot;Türöffner&amp;quot; für die Geltendmachung weiterer Rechte dient (so wird bspw eine Klage wegen Diskriminierung in einem Entscheidungsprozess erst erhoben werden können, wenn die betroffene Person genügend Informationen hat, um die Diskriminierung darzulegen, bspw die Gewichtung von bestimmten persönlichen Merkmalen, die ausschlaggebend für die Entscheidung war).&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Es handelt sich somit um ein nachgelagertes bzw &#039;&#039;ex post&#039;&#039; Recht, das nicht nur globale, abstrakte Systemerklärungen erfordert, sondern auch lokale, einzelfallbezogene Auskünfte umfasst, damit die betroffene Person die Informationen wirksam nutzbar machen kann .&amp;lt;/mark&amp;gt; Das Recht auf Erklärung steht Betroffenen gegenüber Betreibern und nicht gegenüber Anbietern zu, wobei letztere wiederum Betreibern entsprechende Betriebsanleitungen bereitzustellen haben (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung gilt nicht, sofern Ausnahmen nach Unionsrecht oder nationalem Recht bestehen (Art 86 Abs 2). Zu denken wäre hier etwa an Beschränkungen der Informationspflicht aufgrund geschützter Betriebs- oder Geschäftsgeheimnisse, wobei diese nicht zu einer pauschalen Auskunftsverweigerung führen dürfen.&amp;lt;/mark&amp;gt; Art 86 Abs 1 gilt überdies nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung Subsidiarität] ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Das Recht auf Erklärung ist immer dann relevant, wenn Unternehmen, Behörden etc. KI in Entscheidungsfindungsprozessen einsetzen, die Auswirkungen auf bestimmte Personen(-gruppen) haben. Zu denken ist etwa an KI-basierte Entscheidungen über die Vergabe von Krediten, über die Berücksichtigung einer Bewerbung, über die Höhe einer Versicherungsprämie oder personalisierte Werbeschaltungen auf Basis von Emotionserkennung.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Zum Umgang mit dem Recht auf Erklärung in der Praxis hat das &#039;&#039;Research Institute&#039;&#039; im Auftrag des Bundesministeriums für Arbeit, Soziales, Gesundheit, Pflege und Konsumentenschutz Leitlinien entwickelt:&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:f1685e43-21b8-48f3-9fe5-2c61898960ae/Final_Aufkl%C3%A4rung%204.0_Unternehmensleitfaden_April2025.pdf Leitfaden für Unternehmen] im Umgang mit Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:40ba630c-39af-4b8d-8768-a69192427b09/Final_Aufkl%C3%A4rung%204.0_Konsumentinnenleitfaden_April2025.pdf Leitfaden für Konsument:innen und ihre Interessenvertretungen] zur Durchsetzung ihrer Rechte&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;[https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf Theoretischer Grundlagenbericht] zur wissenschaftlichen Fundierung der ausgesprochenen Empfehlungen&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Grundlegende Überschneidungen zwischen dem AI Act und der Datenschutz-Grundverordnung (DSGVO)&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Da KI-Systeme bzw -Modelle häufig personenbezogene Daten verarbeiten - bspw im Rahmen des Trainings eines KI-Modells oder zur Entscheidungsunterstützung in Bezug auf konkrete Personen -, stellt sich unweigerlich die Frage nach dem Zusammenwirken des AI Act mit der DSGVO.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Der Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA) des LfDI Baden-Württemberg enthält eine Auswahl von Orientierungshilfen verschiedener Aufsichtsbehörden und Gremien zu den Schnittstellen von DSGVO und KI: https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0. MwN &#039;&#039;Holtz/Ledendal,&#039;&#039; AI Data Governance - Overlaps Between the AI Act and the GDPR (iE, 2026): https://uu.diva-portal.org/smash/record.jsf?pid=diva2%3A1996843&amp;amp;dswid=-4177 sowie der [https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/DE-Bridge-Blueprint-v.0.9.pdf &amp;quot;Bridge Blueprint&amp;quot;-Entwurf] zur einheitlichen Anwendung von Datenschutz- und KI-Regulierung des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI).&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Letztere knüpft ihren Anwendungsbereich nämlich an die Verarbeitung personenbezogener Daten iSd Art 4 Abs 1 DSGVO, worunter alle Informationen zu verstehen sind, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Die DSGVO ist seit 2018 in Anwendung und verfolgt den Grundsatz, dass jegliche Verarbeitung personenbezogener Daten verboten ist, es sei denn, es liegt ein Erlaubnistatbestand nach Art 6 Abs 1 DSGVO vor. Für die Verarbeitung sog &amp;quot;sensibler Daten&amp;quot; nach Art 9 DSGVO (zB Gesundheitsdaten, die ethnische Herkunft, die religiöse Weltanschauung etc.) legt sie noch strengere Maßstäbe an. Damit verfolgt die DSGVO einen horizontalen sowie prinzipienbasierten Ansatz, wonach bei der Verarbeitung personenbezogener Daten bestimmte Anforderungen und Grundsätze einzuhalten sind, ungeachtet der verwendeten Technologie, des Sektors oder des Einsatzgebiets.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 32, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus orientiert sich die Verordnung daran, inwieweit eine bestimmte Datenverarbeitung ein Risiko für die Rechte und Freiheiten natürlicher Personen darstellt (&amp;quot;risikobasierter Ansatz&amp;quot;), wonach sich letztendlich die Strenge der von ihr vorgeschriebenen Verpflichtungen bemisst.&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Der AI Act erkennt das Primat der DSGVO in Art 2 Abs 7 an und statuiert, dass er deren Anwendungsbereich unberührt lässt. Somit gehen im Falle der Verarbeitung personenbezogener Daten durch eine KI-Anwendung die Regelungen der DSGVO grundsätzlich vor, während der AI Act dem ergänzend eine produktsicherheitsrechtliche Komponente beifügt, die während der Entwicklung und des Einsatzes von KI zu beachten ist.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 33, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Überschneidungen beider Rechtsakte ergeben sich bspw, sobald ein KI-Modell mit personenbezogenen Daten &#039;&#039;&#039;trainiert&#039;&#039;&#039; werden soll. In diesem Fall braucht es eine Rechtsgrundlage nach Art 6 Abs 1 DSGVO (und ggf Art 9 DSGVO), wobei hier am ehesten die berechtigten Interessen des Verantwortlichen nach lit f leg cit infrage kommen. So hat sich bspw der Facebook-Mutterkonzern Meta auf berechtigte Interessen berufen, um sein Sprachmodell &amp;quot;LLaMA&amp;quot; hinter seiner &amp;quot;Meta AI&amp;quot; mit Nutzerdaten zu trainieren. Dagegen erhob die Verbraucherschutzzentrale NRW Antrag auf Erlass einer einstweiligen Verfügung, letztendlich entschied jedoch das OLG Köln in seinem Beschluss vom 23.05.2025 (15 UKl 2/25), dass sich Meta für das KI-Training mit Nutzerdaten auf berechtigte Interessen stützen könne.&amp;lt;ref&amp;gt;Nähere Informationen unter: https://www.verbraucherzentrale.nrw/urteilsdatenbank/digitale-welt/olg-koeln-weist-eilantrag-der-verbraucherzentrale-nrw-gegen-meta-wegen-kitraining-zurueck-108065.&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* &amp;lt;mark&amp;gt;Umgekehrt ist laut Art 35 DSGVO immer dann eine Datenschutz-Folgenabschätzung durchzuführen, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat, insbesondere bei Verwendung neuer Technologien. Darunter fallen gemäß §2 Abs 2 Z 4 DSFA-V&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Verordnung der Datenschutzbehörde über Verarbeitungsvorgänge, für die eine Datenschutz-Folgenabschätzung durchzuführen ist (DSFA-V), BGBl. II Nr. 278/2018.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;insbesondere Datenverarbeitung unter Einsatz von künstlicher Intelligenz, welcher jedenfalls die Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung nach sich zieht. Somit löst auch der Einsatz von KI unter gewissen Voraussetzungen datenschutzrechtliche Pflichten aus.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: Digital Services Act (DSA) vs AI Act ===&lt;br /&gt;
* &amp;lt;mark&amp;gt;Der DSA legt einheitliche Regeln für Vermittlungsdienste mit dem Ziel fest, ein vertrauenswürdiges, (rechts-)sicheres und vorhersehbares Online-Umfeld für Verbraucher und Unternehmen durch eine harmonisierte Plattformregulierung zu gewährleisten. Ebenso zielt das Regelwerk auf den Schutz sowie die Gewährleistung einer effektiven Grundrechtsausübung und normiert umfassende Verpflichtungen für Anbieter von Online-Diensten in Form eines abgestuften Regelungsansatzes, der die unterschiedlichen Compliance-Pflichten an die Art und Größe der jeweiligen Online-Dienste knüpft. Dabei kennt der DSA folgende Anbieterkategorien: Anbieter von allgemeinen Vermittlungsdiensten, Hostingdiensten, Online- sowie Transaktionsplattformen und sehr großen Online-Plattformen (VLOPs) und -Suchmaschinen (VLOSEs). Überschneidungen mit dem AI Act können sich auf zweierlei Weise ergeben: Einerseits können KI-Anwendungen zur Generierung oder Manipulation von Inhalten verwendet werden, die dann über Vermittlungsdienste geteilt werden. Andererseits können KI-Systeme das Kernangebot des Diensteanbieters ausmachen, in der Inhaltsmoderation eingesetzt werden oder Produkt- bzw Service-Empfehlungen auf Basis von Nutzerverhalten (&amp;quot;Empfehlungsalgorithmen&amp;quot;) schalten.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 48, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt; &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Allgemeine Synergien sind dem [[Digital Services Act (DSA)|Eintrag über den DSA]] zu entnehmen.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
* Weiters kann es bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act in Bezug auf die notwendige Risikoanalyse kommen. &amp;lt;mark&amp;gt;So fordern die Artikel 34 und 35 DSA die Analyse jener potenzieller systemischer Risiken, die sich durch das Design, die Funktion oder die Nutzung ihrer Services ergeben, insbesondere im Zusammenhang mit algorithmischen Systemen oder Systemen zur Inhaltsmoderation. Demgegenüber legt der AI Act in Art 17 die Verpflichtung für Anbieter von Hochrisiko-KI-Systemen zur Etablierung eines Risikomanagementsystems gemäß Art 9 AI Act fest und sieht spezielle Anforderungen für Anbieter von GPAI-Modellen mit systemischem Risiko vor (Art 55 Abs 1 lit b AI Act).&amp;lt;/mark&amp;gt; Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Im Fall von Anbietern von Hochrisiko-KI-Systemen sieht der AI Act sogar explizit die Möglichkeit vor, Risikomanagementprozesse nach anderen unionsrechtlichen Bestimmungen mit jenen nach dem AI Act zu kombinieren (vgl Art 9 Abs 10 AI Act).&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;MwN &#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), 49, &amp;lt;nowiki&amp;gt;https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in [https://wiki.atlaws.eu/index.php/Artificial_Intelligence_Act_(AIA)#Recht_auf_Erl%C3%A4uterung_der_Entscheidungsfindung_im_Einzelfall_(Art_86_AI_Act) Art 86 AI Act normierte Recht auf Erläuterung] besteht potentiell eine Subsidiarität gegenüber anderen Auskunftsansprüchen, insb der Auskunftspflicht nach Art 15 Abs 1 lit h DSGVO iVm Art 22 DSGVO. &amp;lt;mark&amp;gt;Demnach steht Personen, die von einer automatisierten Entscheidungsfindung im Einzelfall einschließlich Profiling betroffen sind, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie ähnlich erheblich beeinträchtigt, das Recht zu, neben allgemeinen Informationen über die Verarbeitung ihrer personenbezogenen Daten aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und Auswirkungen einer derartigen Verarbeitung zu verlangen. Inhaltlich&amp;lt;/mark&amp;gt; &amp;lt;mark&amp;gt;richtet sich der Auskunftsanspruch nach Art 15 Abs 1 lit h DSGVO gemäß rezenter EuGH-Judikatur insb auf die Erläuterung des Verfahrens und der Grundsätze, die bei der automatisierten Verarbeitung der personenbezogenen Daten der betroffenen Person zur Anwendung kamen und zu dem bestimmten Ergebnis geführt haben.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117, Rz 58. &amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Die Frage nach einer potenziellen Subsidiarität von Art 86 AI Act gegenüber den entsprechenden datenschutzrechtlichen Vorschriften hängt von unterschiedlichen Fallszenarien ab, in denen die jeweils verwendeten Technologien und verarbeiteten Datenkategorien zu unterschiedlichen Ergebnissen führen können:&amp;lt;/mark&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 86 AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Art 15 Abs 1 lit h iVm Art 22 DSGVO&amp;lt;/mark&amp;gt;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Rechtsfolge&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Hochrisiko-KI-Einsatz in Entscheidungsfindungsprozessen, in denen entweder keine personenbezogenen Daten gemäß Art 4 Z 1 DSGVO verarbeitet werden (zB Verarbeitung lediglich aggregierter Daten) oder keine vollautomatisierte Entscheidung iSd Art 22 DSGVO getroffen wird (etwa weil ein Mensch maßgeblich an der Entscheidungsfindung beteiligt ist)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Das Recht auf Erklärung steht vollumfänglich wie in Art 86 Abs 1 dargelegt zu (bei Vorliegen der übrigen Voraussetzungen). Der betroffenen Person sind somit klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess und zu den wichtigsten Elementen der getroffenen Entscheidung zu übermitteln, wobei die Erklärung einzelfallbezogen und auf das konkrete Ergebnis gerichtet sein muss. Der Anwendungsbereich von Art 15 (Abs 1 lit h iVm Art 22) DSGVO ist hingegen nicht eröffnet. Das Recht, die Entscheidung anzufechten, steht - zumindest gemäß AI Act - nicht zu.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Es findet eine vollautomatisierte Entscheidungsfindung auf Basis der Verarbeitung personenbezogener Daten statt, allerdings ohne Beteiligung eines Hochrisiko-KI-Systems iSd Art 6 Abs 2 iVm Anhang III AI Act (bspw wird die Entscheidung durch einen herkömmlichen Algorithmus getroffen, der Anforderungen an ein KI-System nach Art 3 Z 1 AI Act nicht erfüllt oder das KI-System fällt nicht in den Hochrisiko-KI-Bereich)&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Nicht anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Auskunftsanspruch gemäß Art 15 (Abs 1 lit h iVm Art 22) DSGVO steht bei Vorliegen der übrigen Voraussetzungen zu, während das Recht auf Erklärung nach Art 86 AI Act keine Anwendung findet. Es sind der betroffenen Person somit Informationen über die involvierte Logik, Tragweite und Auswirkungen der Entscheidung zu übermitteln, wobei Informationen über die Rolle des eingesetzten Systems nicht darunter fallen. Im Unterschied zu Art 86 AI Act ist in Bezug auf Art 15 Abs 1 lit h DSGVO jedoch noch unklar, ob auch eine Verpflichtung zu einer einzelfallbezogenen Begründung der konkret erzielten Ergebnisse besteht, die über eine abstrakte/allgemeine Erklärung hinausgeht.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl etwa das EuGH-Urteil in der RS Dun &amp;amp; Bradstreet, welches stärker auf das lokale Element, dh die Einzelentscheidung, abzustellen scheint (EuGH 27. 2. 2025, C‑203/22, Dun &amp;amp; Bradstreet Austria, ECLI:EU:C:2025:117). MwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 71, https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Art 22 Abs 3 DSGVO enthält jedoch im Gegensatz zum AI Act das Recht, die Entscheidung anzufechten.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|&amp;lt;mark&amp;gt;Verarbeitung personenbezogener Daten im Rahmen der Entscheidungsfindung, Einsatz eines Hochrisiko-KI-Systems, vollautomatisierte Entscheidungsfindung&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Anwendbar&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Anspruch nach Art 86 AI Act tritt ergänzend zu jenem nach der DSGVO hinzu und richtet sich auf jene Informationen, die nach Art 15 DSGVO nicht zu beauskunften sind (bspw die Rolle des KI-Systems im Entscheidungsprozess sowie jedenfalls einzelfallbezogene, lokale Erklärungen). Es handelt sich somit um eine sog &amp;quot;Lückenfüller-Position&amp;quot; von Art 86 AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Ansicht folgend und mwN &#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), 96 ff, &amp;lt;nowiki&amp;gt;https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf&amp;lt;/nowiki&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;mark&amp;gt;In der Regel werden Betroffene in der Praxis wohl beide Ansprüche gleichzeitig geltend machen. Dies ist allerdings nur möglich, sofern beide Ansprüche auch gegenüber der selben Person bzw Einrichtung geltend zu machen sind. Denn während das Recht auf Erklärung nach Art 86 AI Act gegen den Betreiber des KI-Systems zusteht, ist der Auskunftsanspruch gemäß Art 15 Abs 1 lit h DSGVO gegen jene Person oder Stelle zu richten, welche die Entscheidung getroffen hat (welche zwar meist aber nicht zwangsläufig mit der Person des datenschutzrechtlich Verantwortlichen iSd Art 4 Z 7 DSGVO ident sein wird&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Dieser Argumentation folgend: &#039;&#039;Ziegenhorn,&#039;&#039; Wer ist Adressat des Art. 22 DSGVO? Zur Abgrenzung des Entscheiders vom Verantwortlichen, CR 2024, 586.&amp;lt;/ref&amp;gt;&amp;lt;mark&amp;gt;). Die unterschiedlichen Rollen nach AI Act und DSGVO können somit zusammenfallen, müssen dies allerdings nicht, wodurch sich unterschiedliche Verpflichtungen für die beteiligten Akteure ergeben können.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
=== Produkthaftungsrichtlinie neu und Vorschlag für eine AI Liability Directive [zurückgezogen] ===&lt;br /&gt;
&lt;br /&gt;
* Die Produkthaftungsrichtlinie neu (PHRL neu) und insbesondere &amp;lt;mark&amp;gt;der (zurückgezogene)&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Commission work programme 2025, (11.2.2025) COM(2025) 45 final, 26.&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt; Vorschlag für eine&amp;lt;/mark&amp;gt; AI Liability Directive (AILD) nehmen direkt auf den AI Act Bezug und verweisen bei der Begriffsverwendung häufig auf diesen. Die AILD kann somit nicht ohne den Kontext des AI Act verstanden werden. So sollten die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD bilden ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]). &lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act überträgt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Begleit- bzw Durchführungsgesetz, das die Sanktionen konkretisiert.  &amp;lt;mark&amp;gt;Auch die notifizierende(n) Behörde(n) und die Marktüberwachungsbehörde(n) (Art 70 AI Act) wurden in Österreich noch nicht benannt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 5: Transkriptionstool im Rahmen der Rechtspflege&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|&amp;lt;mark&amp;gt;Im Rahmen des Verfassens von Urteilen oder Protokollen wird das gesprochene Wort (Diktat des Entscheidungsorgans) digital aufgezeichnet und anschließend transkribiert. Das System ist in der Lage, mithilfe KI-gestützter Spracherkennung die jeweils Sprechenden (Speaker Diarisation) sowie juristische Begriffe und Redewendungen zu erkennen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&amp;lt;mark&amp;gt;Der Transkriptionssoftware liegt ein Sprachmodell (LLM) zugrunde, das auf maschinellem Lernen basiert. Dieses wird durch ein User-Interface praktisch nutzbar gemacht und stellt somit ein KI-System iSd AI Act dar.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&amp;lt;mark&amp;gt;Der Einsatz von KI in der Rechtspflege zu gewissen Zwecken kann in den Hochrisiko-KI-Bereich gemäß Art 6 Abs 2 iVm Anhang III Nr 8 lit a AI Act fallen. Solche Systeme sind jedoch nicht als hochriskant einzustufen, sofern sie für rein begleitende administrative Tätigkeiten bestimmt sind, worunter jedenfalls Spracherkennungsprogramme für das Diktieren von Entscheidungen fallen können (ErwGr 61). In einem nächsten Schritt ist die Ausnahmeregelung des Art 6 Abs 3 AI Act zu prüfen, wonach das System höchstwahrscheinlich gemäß lit a leg cit aus dem Hochrisiko-KI-Bereich ausgenommen ist, da es rein für Protokollierungszwecke eingesetzt wird und damit nur eine eng gefasste Verfahrensaufgabe übernimmt. Ebenso ist denkbar, gemäß lit d leg cit aus dem Hochrisiko-KI-Bereich ausgenommen zu sein, sofern das System lediglich eine vorbereitende Aufgabe für die Urteilserstellung übernimmt.&amp;lt;/mark&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;mark&amp;gt;Bejaht man hingegen das Vorliegen von Hochrisiko-KI, so treffen deren Anbieter die Pflichten der Art 8 ff AI Act und den Betreiber insbesondere die Pflichten nach Art 26 und 27 AI Act.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Sofern es sich um ein KI-Modell mit allgemeinem Verwendungszweck (mit systemischem Risiko) handelt, treffen den Anbieter diesbezüglich Verpflichtungen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Unabhängig von der Risikoeinstufung des Modells bzw Systems sind darüber hinaus die Transparenzpflichten nach Art 50 AI Act zu beachten sowie ein ausreichendes Maß an KI-Kompetenz unter den Beschäftigten, die mit dem Transkriptionstool arbeiten, herzustellen.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;mark&amp;gt;Beispiel 6: KI-System zur Filterung und Priorisierung von Bewerbungen&amp;lt;/mark&amp;gt; ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!&amp;lt;mark&amp;gt;Sachverhalt&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Ein Unternehmen möchte eine neue Stelle besetzen und erhält unzählige Bewerbungen. Daher entschließt es sich, ein KI-basiertes System einzusetzen, das Bewerbungen filtert und mit einem Einstufungswert versieht, wodurch die Bewerbungen priorisiert werden. Die zuständigen HR-Mitarbeiter*innen weichen nicht mehr von dem Wert ab und vergeben die Stelle schließlich an jene Person, die den höchsten Einstufungswert erhalten hat.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!&amp;lt;mark&amp;gt;Einordnung AI Act&amp;lt;/mark&amp;gt;&lt;br /&gt;
|&amp;lt;mark&amp;gt;Sofern es sich bei der Anwendung um ein KI-System nach Art 3 Z 1 AI Act handelt, ist der Anwendungsbereich des AI Act grundsätzlich eröffnet. Das Unternehmen ist jedenfalls als dessen Betreiber zu qualifizieren, da es das System in eigener Verantwortung zu beruflichen Zwecken einsetzt. Sofern es das KI-System auch selbst entwickelt / entwickeln lässt und es unter eigener Marke bzw eigenem Namen in Betrieb nimmt, ist es sogar Anbieter.&amp;lt;ref&amp;gt;&amp;lt;mark&amp;gt;Vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]].&amp;lt;/mark&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;/mark&amp;gt;&lt;br /&gt;
&amp;lt;mark&amp;gt;Darüber hinaus stellt das System ein &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System nach Art 6 Abs 2 iVm Anhang III Punkt 4a AI Act dar, da es bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet wird, um Bewerbungen zu filtern und Bewerber zu bewerten. Eine Ausnahme nach Art 6 Abs 3 AI Act vom Hochrisiko-KI-Bereich liegt nicht vor, da das KI-System das Ergebnis der Entscheidungsfindung wesentlich beeinflusst (von dem KI-generierten Eignungswert wird nicht mehr abgewichen). Je nach Rolle treffen das Unternehmen nun weitereichende Verpflichtungen. In den meisten Fällen wird das Unternehmen wohl als Betreiber zu klassifizieren sein, weshalb es unter anderem die Betreiberpflichten nach Art 26 AI Act zu erfüllen und unter gewissen Voraussetzungen eine Grundrechte-Folgenabschätzung nach Art 27 AI Act durchzuführen hat. Art 26 Abs 7 sieht grundsätzlich auch die spezielle Betreiberpflicht vor, vor Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz die Arbeitnehmervertreter und betroffenen Arbeitnehmer über den KI-Einsatz zu informieren. Inwieweit diese Verpflichtung auch gegenüber Bewerbern gilt, die streng genommen (noch) keine Arbeitnehmer sind, ist fraglich und wird wohl zu verneinen sind. Diese vermeintliche Rechtsschutzlücke wird jedoch ohnehin wieder durch die Verpflichtung gemäß Art 26 Abs 11 AI Act ausgeglichen, von Hochrisiko-KI-Entscheidungen betroffene Personen über diesen KI-Einsatz zu informieren.&amp;lt;/mark&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= &amp;lt;mark&amp;gt;Digitaler Omnibus&amp;lt;/mark&amp;gt; =&lt;br /&gt;
&amp;lt;mark&amp;gt;Am 19. November 2025 stellte die Europäische Kommission das sogenannte &#039;&#039;&#039;„Digital Omnibus Package“&#039;&#039;&#039; vor, ein Legislativpaket mit dem Ziel, den digitalen Rechtsrahmen der EU zu vereinfachen.&amp;lt;ref name=&amp;quot;:2&amp;quot;&amp;gt;Vgl https://ec.europa.eu/commission/presscorner/detail/de/ip_25_2718. &amp;lt;/ref&amp;gt; Ziel der Maßnahme ist, Verwaltungs- und Umsetzungskosten zu senken, Rechtsklarheit zu erhöhen und insbesondere kleine und mittlere Unternehmen (KMU) zu entlasten, da Unternehmen zunehmend Schwierigkeiten bei der Umsetzung und Koordination von Vorgaben wie etwa dem AI Act sehen. Das Paket umfasst Änderungen und Anpassungen unterschiedlicher Rechtsrahmen, so auch einige Bestimmungen des AI Act.&amp;lt;/mark&amp;gt;&amp;lt;ref&amp;gt;Vgl https://ec.europa.eu/newsroom/dae/redirection/document/121744.&amp;lt;/ref&amp;gt; &amp;lt;mark&amp;gt;Inhaltliche Änderungen betreffen einerseits die Verpflichtung zur Sicherstellung von KI-Kompetenz (Art 4), welche nunmehr nicht Unternehmen bzw. Einrichtungen selbst treffen soll, sondern die Kommission und die Mitgliedstaaten sind dazu angehalten, Anbieter und Betreiber zur Sicherstellung eines angemessenen Maßes an KI-Kompetenz zu unterstützen. Ebenso stellt die Kommission eine Verzögerung der Anwendbarkeit der Hochrisiko-KI-Bestimmungen in Aussicht, welche mit 2. August 2026 bzw 2. August 2027 Anwendung erlangen sollten. Grund ist das Fehlen von entsprechenden Standards, die eigentlich bis August 2025 zu setzen waren und ohne die laut Kommission die Einhaltung der entsprechenden AI Act-Bestimmungen nicht möglich sei. Die Anwendbarkeit der Hochrisiko-KI-Bestimmungen soll sich um bis zu maximal 16 Monate verzögern, wobei die Vorschriften Geltung erlangen, sobald die Kommission die Verfügbarkeit der erforderlichen Standards und Unterstützungsinstrumente bestätigt.&amp;lt;/mark&amp;gt;&amp;lt;ref name=&amp;quot;:2&amp;quot; /&amp;gt; &amp;lt;mark&amp;gt;Darüber hinaus enthält der Vorschlag einen neuen Art 4a, der die Verarbeitung sensibler personenbezogener Daten zur Erkennung und Minderung von Bias unter gewissen Voraussetzungen ermöglicht.&amp;lt;/mark&amp;gt;   &lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;mark&amp;gt;Kommissionsleitlinien und sonstige Materialen/Verhaltenskodizes&amp;lt;/mark&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zur Definition eines Systems der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 6. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118628&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) vom 4. Februar 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118661&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Living Repository zur Förderung des Lernens und des Austausches über KI-Kompetenz vom 04. Februar 2025 (mit Update von April 2025): https://ec.europa.eu/newsroom/dae/redirection/document/112203&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &amp;lt;mark&amp;gt;Verhaltenskodex für KI-Modelle mit allgemeinem Verwendungszweck (GPAI Modelle) vom 10. Juli 2025:&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Transparenz: https://ec.europa.eu/newsroom/dae/redirection/document/118120&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Urheberrecht: https://ec.europa.eu/newsroom/dae/redirection/document/118115&amp;lt;/mark&amp;gt;&lt;br /&gt;
*# &amp;lt;mark&amp;gt;Kapitel zu Sicherheit: https://ec.europa.eu/newsroom/dae/redirection/document/118119&amp;lt;/mark&amp;gt;  &lt;br /&gt;
*&amp;lt;mark&amp;gt;Leitlinien zum Umfang der Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nach dem AI Act vom 18. Juli 2025: https://ec.europa.eu/newsroom/dae/redirection/document/118340&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;Leitlinien und Meldevorlagen zur Meldung schwerwiegender KI-Vorfälle gemäß Art 73 AI Act (&#039;&#039;Entwurf, noch in Ausarbeitung&#039;&#039;): https://digital-strategy.ec.europa.eu/de/consultations/ai-act-commission-issues-draft-guidance-and-reporting-template-serious-ai-incidents-and-seeks&amp;lt;/mark&amp;gt;&lt;br /&gt;
*&amp;lt;mark&amp;gt;&#039;&#039;Europäische Kommission,&#039;&#039; AI Act Service Desk. Frequently Asked Questions (FAQs): https://ai-act-service-desk.ec.europa.eu/en/faq.&amp;lt;/mark&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act)&amp;lt;mark&amp;gt;&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (&amp;lt;mark&amp;gt;2024&amp;lt;/mark&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024) &amp;lt;mark&amp;gt;(2. Auflage 2026, iE)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Schefzig/Kilian,&#039;&#039; BeckOK KI-Recht&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt; (2025)&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (&amp;lt;mark&amp;gt;2026&amp;lt;/mark&amp;gt;, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (&amp;lt;mark&amp;gt;2025&amp;lt;/mark&amp;gt;)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Graux/Garstka/Murali/Cave/Botterman,&#039;&#039; Interplay between the AI Act and the EU digital legislative framework (2025), https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/778577/ECTI_ATA(2025)778577_EN.pdf.&amp;lt;/mark&amp;gt;  &lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Hochrangige Expertengruppe für Künstliche Intelligenz,&#039;&#039; Ethik-Leitlinien für eine vertrauenswürdige KI (2019), https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425&amp;lt;/mark&amp;gt;&lt;br /&gt;
* [https://www.baden-wuerttemberg.datenschutz.de/onkida/?v=2.0 Orientierungshilfen-Navigator KI &amp;amp; Datenschutz (ONKIDA)]&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &amp;lt;mark&amp;gt;&#039;&#039;Research Institute,&#039;&#039; Aufklärung 4.0 - Entscheidungen der KI als Mensch verstehen. Bericht über die theoretischen Grundlagen des Rechts auf Erläuterung der Entscheidungsfindung im Einzelfall nach Artikel 86 AI Act (2025), https://www.sozialministerium.gv.at/dam/jcr:3d0ab567-4d81-40c9-ace8-471a5819178a/Final_Aufkl%C3%A4rung%204.0_Grundlagenbericht_April2025.pdf.&amp;lt;/mark&amp;gt;&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4017</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4017"/>
		<updated>2025-09-26T11:40:40Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Der Vorschlag für eine AI Liability Directive (AILD) */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. August 2026 (mit Ausnahmen)|Gültig=inkraft}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen &lt;br /&gt;
von KI-Systemen oder&lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung&lt;br /&gt;
mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und &lt;br /&gt;
Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modellen (general pupose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB &lt;br /&gt;
Verarbeitung zur Vermeidung von &lt;br /&gt;
Verzerrungen Art 10), regulatory&lt;br /&gt;
sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (bspw Anbieter- und Betreiberpflichten)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Funktionierens des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz&lt;br /&gt;
(eingeschränkt); reine Forschungszwecke&lt;br /&gt;
&lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) bereits ab 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (bspw Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|eingeschränkte Pflichten für Betreiber (professionelle Nutzer*innen)&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (bspw Chatbots, Deepfakes)&lt;br /&gt;
|&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes (Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|Sonderregeln für GPAI-Modelle&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
Der AI Act ist der Versuch, in der EU eine sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) zu erreichen. Der AI Act folgt dabei primär einem produktsicherheitsrechtlichem Ansatz: Primäres Regulierungsziel ist die Sicherheit von KI-Systemen und Modellen.  &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modell&#039;&#039;&#039;e bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot; (Art 3 Z 1 AI Act).&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Art 3 Z 1 nennt die unterschiedlichen Komponenten des KI-Systems. Ein KI-System ist demnach &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;&amp;lt;u&amp;gt;ableitet&amp;lt;/u&amp;gt;&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot; (Hervorhebungen nicht om Original). Nach ErwGr 12 sollte der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;sich nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen.&amp;quot;  &lt;br /&gt;
&lt;br /&gt;
Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;&amp;lt;u&amp;gt;abzuleiten&amp;lt;/u&amp;gt;&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze. &lt;br /&gt;
&lt;br /&gt;
Um Unklarheiten zu beseitigen, wird die Kommission Leitlinien vorlegen, um auch den Begriff KI-System zu klären.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; So wurden Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen aus. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen Nutzer) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollten:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität) unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act erlangt am 1. August 2024 Geltung und tritt generell am 2. August 2026 in Kraft und ist damit auf Sachverhalte anwendbar (Art 113 AI Act). Gestaffelt treten einige Bestimmungen jedoch bereits vorab in Kraft:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab 2. August 2025&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem 2. August 2027&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten:&amp;lt;ref&amp;gt;MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* unterschwellige Beeinflussung außerhalb des Bewusstseins, manipulative/täuschende Techniken &lt;br /&gt;
* Ausnutzen der Vulnerabilität/Schutzbedürftigkeit &lt;br /&gt;
* social scoring (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&lt;br /&gt;
* Bewertung des Risikos, dass eine Person eine Straftat begeht (ausschließlich aufgrund von Profiling)&lt;br /&gt;
* Erstellung/Erweiterung von Datenbanken zur Gesichtserkennung durch ungezieltes Auslesen von Gesichtsbildern &lt;br /&gt;
* Emotionserkennungssysteme am Arbeitsplatz oder in Bildungseinrichtungen &lt;br /&gt;
* biometrische Kategorisierung, Ableitung von sensiblen Daten (Rasse, politische Einstellung)&lt;br /&gt;
* biometrische Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&lt;br /&gt;
(Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act definiert Hochrisiko-KI-Systeme in Art 6. Dabei kennt sie zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige Hochrisiko-KI-Systeme&amp;quot; bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines Produkts verwendet werden oder das KI-System ist selbst ein solches Produkt fällt unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten:  &lt;br /&gt;
&lt;br /&gt;
(bspw biometrisch Identifizierung, kritische Infrastrukturen,  grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis der Entscheidungsfindung wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot;&lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Betreiber von Hochrisiko-KI-Systemen (Art 26 AI Act) ====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis verfügen und ihnen die erforderliche Unterstützung zukommen lassen&lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von &#039;&#039;&#039;Protokollen&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, wenn das KI-System am Arbeitsplatz eingesetzt wird&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet&lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführung oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn sie ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das nicht als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat dabei mit dem neuen Anbieter zusammenzuarbeiten, Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI muss beachtet werden, dass die Rollenverteilung im AI Act eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters ist, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden.&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots), sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als KI-Systeme mit minimalem Risiko bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Baustein/Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme in den risikobasierten Ansatz fallen (verbotene Systeme, Hochrisiko-KI-Systeme, Transparenzpflichten), unterliegen nur gewisse Modelle, nämlich GPAI-Modelle (in früheren Fassungen foundation models/Basismodelle) einer Sonderregulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei wird binär zwischen GPAI-Modelle ohne und GPAI-Modelle mit systemischem Risiko unterschieden. &lt;br /&gt;
&lt;br /&gt;
Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act),&lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über Fähigkeiten mit hohem Wirkungsgrad verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; beträgt. Dies dürfte zurzeit nur auf GPT-4 und potentiell Varianten von Gemini zutreffen. Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act).&lt;br /&gt;
* ein solches Risiko kann von Amts wegen/aufgrund einer Warnung von der Kommission in einer Entscheidung festgestellt werden (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc) &lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden. &lt;br /&gt;
* Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
* eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
* eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
* mögliche systemische Risiken auf Unionsebene bewerten und mindern,&lt;br /&gt;
* einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
* ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten.&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung dieser Verordnung beizutragen sollen (Art 56 Abs 1 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die Praxisleitfäden sollen mindestens die in Art 53-55 AI Act vorgesehenen Pflichten abdecken, darunter (Art 56 Abs 2 AI Act)&lt;br /&gt;
&lt;br /&gt;
* Mittel, mit denen sichergestellt wird, dass die in Art 53 Abs 1 lit a und b AI Act genannten Informationen (technische Dokumentation des Modells; Information und Dokumentation für die Integrierung des Modells) vor dem Hintergrund der Marktentwicklungen und technologischen Entwicklungen auf dem neuesten Stand gehalten werden&lt;br /&gt;
* die angemessene Detailgenauigkeit bei der Zusammenfassung der für das Training verwendeten Inhalte&lt;br /&gt;
* die Ermittlung von Art und Wesen der systemischen Risiken auf Unionsebene&lt;br /&gt;
* die Maßnahmen, Verfahren und Modalitäten für die Bewertung und das Management der systemischen Risiken auf Unionsebene&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von KI-Modellen mit allgemeinem Verwendungszweck sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 65 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein erster Entwurf eines solchen Leitfadens, ausgearbeitet von internationalen Expert*innen, wurde im November 2024 von der Europäischen Kommission präsentiert.&amp;lt;ref&amp;gt;&#039;&#039;European Commission&#039;&#039;, First Draft of the General-Purpose AI Code of Practice published, written by independent experts, https://digital-strategy.ec.europa.eu/en/library/first-draft-general-purpose-ai-code-practice-published-written-independent-experts (Stand 14. 11. 2024).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt. &lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der AILD und PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung betroffen sind, &lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
&lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (Art 86 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es handelt sich somit um ein Recht, das Betroffenen gegenüber Betreibern und nicht Anbietern zusteht. Anbieter wiederum haben Betreibern entsprechende Betriebsanleitungen bereitzustellen (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
Dies gilt nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese Subsidiarität ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: DSA vs AI Act ===&lt;br /&gt;
* Bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, kann es zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act, bspw in Bezug auf die nach DSA und AI Act notwendige Risikoanalyse kommen. Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in Art 86 AI Act normierte Recht auf Erläuterung besteht potentiell eine Subsidiarität gegenüber der Auskunftspflicht nach Art 15 DSGVO iVm Art 22 DSGVO zur automatisierten Entscheidungsfindung, das für vollautomatisierte Entscheidungsfindung ein Recht auf Zugang zu besonderen Informationen wie der involvierten Logik gewährt.&lt;br /&gt;
&lt;br /&gt;
=== Produkthaftungsrichtlinie neu und Vorschlag für eine AI Liability Directive [zurückgezogen] ===&lt;br /&gt;
&lt;br /&gt;
* Die Produkthaftungsrichtlinie neu (PHRL neu) und insbesondere &amp;lt;mark&amp;gt;der (zurückgezogene) Vorschlag für eine&amp;lt;/mark&amp;gt; AI Liability Directive (AILD) nehmen direkt auf den AI Act Bezug und verweisen bei der Begriffsverwendung häufig auf diesen. Die AILD kann somit nicht ohne den Kontext des AI Act verstanden werden. So sollten die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD bilden ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]).&lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act übertragt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Durchführungsgesetz, das die Sanktionen konkretisiert.&lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (2024, iE)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act) (2024)&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (2024, iE)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024, iE)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (2024, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024)&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2025, iE)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (2024, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (2024, iE)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4016</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4016"/>
		<updated>2025-09-26T09:20:00Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* AILD */ Ausgeschrieben und &amp;quot;Vorschlag&amp;quot; eingefügt&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. August 2026 (mit Ausnahmen)|Gültig=inkraft}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen &lt;br /&gt;
von KI-Systemen oder&lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung&lt;br /&gt;
mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und &lt;br /&gt;
Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modellen (general pupose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB &lt;br /&gt;
Verarbeitung zur Vermeidung von &lt;br /&gt;
Verzerrungen Art 10), regulatory&lt;br /&gt;
sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (bspw Anbieter- und Betreiberpflichten)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Funktionierens des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz&lt;br /&gt;
(eingeschränkt); reine Forschungszwecke&lt;br /&gt;
&lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) bereits ab 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (bspw Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|eingeschränkte Pflichten für Betreiber (professionelle Nutzer*innen)&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (bspw Chatbots, Deepfakes)&lt;br /&gt;
|&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes (Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|Sonderregeln für GPAI-Modelle&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
Der AI Act ist der Versuch, in der EU eine sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) zu erreichen. Der AI Act folgt dabei primär einem produktsicherheitsrechtlichem Ansatz: Primäres Regulierungsziel ist die Sicherheit von KI-Systemen und Modellen.  &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modell&#039;&#039;&#039;e bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot; (Art 3 Z 1 AI Act).&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Art 3 Z 1 nennt die unterschiedlichen Komponenten des KI-Systems. Ein KI-System ist demnach &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;&amp;lt;u&amp;gt;ableitet&amp;lt;/u&amp;gt;&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot; (Hervorhebungen nicht om Original). Nach ErwGr 12 sollte der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;sich nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen.&amp;quot;  &lt;br /&gt;
&lt;br /&gt;
Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;&amp;lt;u&amp;gt;abzuleiten&amp;lt;/u&amp;gt;&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze. &lt;br /&gt;
&lt;br /&gt;
Um Unklarheiten zu beseitigen, wird die Kommission Leitlinien vorlegen, um auch den Begriff KI-System zu klären.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; So wurden Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen aus. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen Nutzer) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollten:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität) unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act erlangt am 1. August 2024 Geltung und tritt generell am 2. August 2026 in Kraft und ist damit auf Sachverhalte anwendbar (Art 113 AI Act). Gestaffelt treten einige Bestimmungen jedoch bereits vorab in Kraft:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab 2. August 2025&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem 2. August 2027&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten:&amp;lt;ref&amp;gt;MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* unterschwellige Beeinflussung außerhalb des Bewusstseins, manipulative/täuschende Techniken &lt;br /&gt;
* Ausnutzen der Vulnerabilität/Schutzbedürftigkeit &lt;br /&gt;
* social scoring (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&lt;br /&gt;
* Bewertung des Risikos, dass eine Person eine Straftat begeht (ausschließlich aufgrund von Profiling)&lt;br /&gt;
* Erstellung/Erweiterung von Datenbanken zur Gesichtserkennung durch ungezieltes Auslesen von Gesichtsbildern &lt;br /&gt;
* Emotionserkennungssysteme am Arbeitsplatz oder in Bildungseinrichtungen &lt;br /&gt;
* biometrische Kategorisierung, Ableitung von sensiblen Daten (Rasse, politische Einstellung)&lt;br /&gt;
* biometrische Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&lt;br /&gt;
(Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act definiert Hochrisiko-KI-Systeme in Art 6. Dabei kennt sie zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige Hochrisiko-KI-Systeme&amp;quot; bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines Produkts verwendet werden oder das KI-System ist selbst ein solches Produkt fällt unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten:  &lt;br /&gt;
&lt;br /&gt;
(bspw biometrisch Identifizierung, kritische Infrastrukturen,  grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis der Entscheidungsfindung wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot;&lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Betreiber von Hochrisiko-KI-Systemen (Art 26 AI Act) ====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis verfügen und ihnen die erforderliche Unterstützung zukommen lassen&lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von &#039;&#039;&#039;Protokollen&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, wenn das KI-System am Arbeitsplatz eingesetzt wird&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet&lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführung oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn sie ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das nicht als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat dabei mit dem neuen Anbieter zusammenzuarbeiten, Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI muss beachtet werden, dass die Rollenverteilung im AI Act eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters ist, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden.&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots), sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als KI-Systeme mit minimalem Risiko bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Baustein/Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme in den risikobasierten Ansatz fallen (verbotene Systeme, Hochrisiko-KI-Systeme, Transparenzpflichten), unterliegen nur gewisse Modelle, nämlich GPAI-Modelle (in früheren Fassungen foundation models/Basismodelle) einer Sonderregulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei wird binär zwischen GPAI-Modelle ohne und GPAI-Modelle mit systemischem Risiko unterschieden. &lt;br /&gt;
&lt;br /&gt;
Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act),&lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über Fähigkeiten mit hohem Wirkungsgrad verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; beträgt. Dies dürfte zurzeit nur auf GPT-4 und potentiell Varianten von Gemini zutreffen. Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act).&lt;br /&gt;
* ein solches Risiko kann von Amts wegen/aufgrund einer Warnung von der Kommission in einer Entscheidung festgestellt werden (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc) &lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden. &lt;br /&gt;
* Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
* eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
* eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
* mögliche systemische Risiken auf Unionsebene bewerten und mindern,&lt;br /&gt;
* einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
* ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten.&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung dieser Verordnung beizutragen sollen (Art 56 Abs 1 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die Praxisleitfäden sollen mindestens die in Art 53-55 AI Act vorgesehenen Pflichten abdecken, darunter (Art 56 Abs 2 AI Act)&lt;br /&gt;
&lt;br /&gt;
* Mittel, mit denen sichergestellt wird, dass die in Art 53 Abs 1 lit a und b AI Act genannten Informationen (technische Dokumentation des Modells; Information und Dokumentation für die Integrierung des Modells) vor dem Hintergrund der Marktentwicklungen und technologischen Entwicklungen auf dem neuesten Stand gehalten werden&lt;br /&gt;
* die angemessene Detailgenauigkeit bei der Zusammenfassung der für das Training verwendeten Inhalte&lt;br /&gt;
* die Ermittlung von Art und Wesen der systemischen Risiken auf Unionsebene&lt;br /&gt;
* die Maßnahmen, Verfahren und Modalitäten für die Bewertung und das Management der systemischen Risiken auf Unionsebene&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von KI-Modellen mit allgemeinem Verwendungszweck sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 65 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein erster Entwurf eines solchen Leitfadens, ausgearbeitet von internationalen Expert*innen, wurde im November 2024 von der Europäischen Kommission präsentiert.&amp;lt;ref&amp;gt;&#039;&#039;European Commission&#039;&#039;, First Draft of the General-Purpose AI Code of Practice published, written by independent experts, https://digital-strategy.ec.europa.eu/en/library/first-draft-general-purpose-ai-code-practice-published-written-independent-experts (Stand 14. 11. 2024).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt. &lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der AILD und PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung betroffen sind, &lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
&lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (Art 86 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es handelt sich somit um ein Recht, das Betroffenen gegenüber Betreibern und nicht Anbietern zusteht. Anbieter wiederum haben Betreibern entsprechende Betriebsanleitungen bereitzustellen (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
Dies gilt nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese Subsidiarität ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: DSA vs AI Act ===&lt;br /&gt;
* Bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, kann es zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act, bspw in Bezug auf die nach DSA und AI Act notwendige Risikoanalyse kommen. Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in Art 86 AI Act normierte Recht auf Erläuterung besteht potentiell eine Subsidiarität gegenüber der Auskunftspflicht nach Art 15 DSGVO iVm Art 22 DSGVO zur automatisierten Entscheidungsfindung, das für vollautomatisierte Entscheidungsfindung ein Recht auf Zugang zu besonderen Informationen wie der involvierten Logik gewährt.&lt;br /&gt;
&lt;br /&gt;
=== Der Vorschlag für eine AI Liability Directive (AILD) ===&lt;br /&gt;
&lt;br /&gt;
* Insbesondere der Vorschlag für eine AI Liability Directive, aber auch eingeschränkter die PHRL neu, nimmt direkt auf den AI Act Bezug und verweist bei der Begriffsverwendung häufig auf diesen. Somit kann die AILD nicht ohne den Kontext des AI Act verstanden werden. So bilden die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]).&lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act übertragt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Durchführungsgesetz, das die Sanktionen konkretisiert.&lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (2024, iE)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act) (2024)&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (2024, iE)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024, iE)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (2024, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024)&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2025, iE)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (2024, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (2024, iE)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4015</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4015"/>
		<updated>2025-09-26T09:08:08Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Synergien */ Tippfehlerkorrekturen und sprachliche Vereinfachungen.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. August 2026 (mit Ausnahmen)|Gültig=inkraft}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen &lt;br /&gt;
von KI-Systemen oder&lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung&lt;br /&gt;
mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und &lt;br /&gt;
Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modellen (general pupose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB &lt;br /&gt;
Verarbeitung zur Vermeidung von &lt;br /&gt;
Verzerrungen Art 10), regulatory&lt;br /&gt;
sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (bspw Anbieter- und Betreiberpflichten)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Funktionierens des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz&lt;br /&gt;
(eingeschränkt); reine Forschungszwecke&lt;br /&gt;
&lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) bereits ab 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (bspw Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|eingeschränkte Pflichten für Betreiber (professionelle Nutzer*innen)&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (bspw Chatbots, Deepfakes)&lt;br /&gt;
|&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes (Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|Sonderregeln für GPAI-Modelle&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
Der AI Act ist der Versuch, in der EU eine sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) zu erreichen. Der AI Act folgt dabei primär einem produktsicherheitsrechtlichem Ansatz: Primäres Regulierungsziel ist die Sicherheit von KI-Systemen und Modellen.  &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modell&#039;&#039;&#039;e bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot; (Art 3 Z 1 AI Act).&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Art 3 Z 1 nennt die unterschiedlichen Komponenten des KI-Systems. Ein KI-System ist demnach &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;&amp;lt;u&amp;gt;ableitet&amp;lt;/u&amp;gt;&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot; (Hervorhebungen nicht om Original). Nach ErwGr 12 sollte der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;sich nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen.&amp;quot;  &lt;br /&gt;
&lt;br /&gt;
Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;&amp;lt;u&amp;gt;abzuleiten&amp;lt;/u&amp;gt;&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze. &lt;br /&gt;
&lt;br /&gt;
Um Unklarheiten zu beseitigen, wird die Kommission Leitlinien vorlegen, um auch den Begriff KI-System zu klären.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; So wurden Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen aus. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen Nutzer) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollten:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität) unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act erlangt am 1. August 2024 Geltung und tritt generell am 2. August 2026 in Kraft und ist damit auf Sachverhalte anwendbar (Art 113 AI Act). Gestaffelt treten einige Bestimmungen jedoch bereits vorab in Kraft:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab 2. August 2025&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem 2. August 2027&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten:&amp;lt;ref&amp;gt;MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* unterschwellige Beeinflussung außerhalb des Bewusstseins, manipulative/täuschende Techniken &lt;br /&gt;
* Ausnutzen der Vulnerabilität/Schutzbedürftigkeit &lt;br /&gt;
* social scoring (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&lt;br /&gt;
* Bewertung des Risikos, dass eine Person eine Straftat begeht (ausschließlich aufgrund von Profiling)&lt;br /&gt;
* Erstellung/Erweiterung von Datenbanken zur Gesichtserkennung durch ungezieltes Auslesen von Gesichtsbildern &lt;br /&gt;
* Emotionserkennungssysteme am Arbeitsplatz oder in Bildungseinrichtungen &lt;br /&gt;
* biometrische Kategorisierung, Ableitung von sensiblen Daten (Rasse, politische Einstellung)&lt;br /&gt;
* biometrische Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&lt;br /&gt;
(Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act definiert Hochrisiko-KI-Systeme in Art 6. Dabei kennt sie zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige Hochrisiko-KI-Systeme&amp;quot; bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines Produkts verwendet werden oder das KI-System ist selbst ein solches Produkt fällt unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten:  &lt;br /&gt;
&lt;br /&gt;
(bspw biometrisch Identifizierung, kritische Infrastrukturen,  grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis der Entscheidungsfindung wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot;&lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Betreiber von Hochrisiko-KI-Systemen (Art 26 AI Act) ====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis verfügen und ihnen die erforderliche Unterstützung zukommen lassen&lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von &#039;&#039;&#039;Protokollen&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, wenn das KI-System am Arbeitsplatz eingesetzt wird&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet&lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführung oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn sie ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das nicht als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat dabei mit dem neuen Anbieter zusammenzuarbeiten, Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI muss beachtet werden, dass die Rollenverteilung im AI Act eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters ist, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden.&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots), sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als KI-Systeme mit minimalem Risiko bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Baustein/Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme in den risikobasierten Ansatz fallen (verbotene Systeme, Hochrisiko-KI-Systeme, Transparenzpflichten), unterliegen nur gewisse Modelle, nämlich GPAI-Modelle (in früheren Fassungen foundation models/Basismodelle) einer Sonderregulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei wird binär zwischen GPAI-Modelle ohne und GPAI-Modelle mit systemischem Risiko unterschieden. &lt;br /&gt;
&lt;br /&gt;
Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act),&lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über Fähigkeiten mit hohem Wirkungsgrad verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; beträgt. Dies dürfte zurzeit nur auf GPT-4 und potentiell Varianten von Gemini zutreffen. Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act).&lt;br /&gt;
* ein solches Risiko kann von Amts wegen/aufgrund einer Warnung von der Kommission in einer Entscheidung festgestellt werden (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc) &lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden. &lt;br /&gt;
* Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
* eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
* eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
* mögliche systemische Risiken auf Unionsebene bewerten und mindern,&lt;br /&gt;
* einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
* ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten.&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung dieser Verordnung beizutragen sollen (Art 56 Abs 1 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die Praxisleitfäden sollen mindestens die in Art 53-55 AI Act vorgesehenen Pflichten abdecken, darunter (Art 56 Abs 2 AI Act)&lt;br /&gt;
&lt;br /&gt;
* Mittel, mit denen sichergestellt wird, dass die in Art 53 Abs 1 lit a und b AI Act genannten Informationen (technische Dokumentation des Modells; Information und Dokumentation für die Integrierung des Modells) vor dem Hintergrund der Marktentwicklungen und technologischen Entwicklungen auf dem neuesten Stand gehalten werden&lt;br /&gt;
* die angemessene Detailgenauigkeit bei der Zusammenfassung der für das Training verwendeten Inhalte&lt;br /&gt;
* die Ermittlung von Art und Wesen der systemischen Risiken auf Unionsebene&lt;br /&gt;
* die Maßnahmen, Verfahren und Modalitäten für die Bewertung und das Management der systemischen Risiken auf Unionsebene&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von KI-Modellen mit allgemeinem Verwendungszweck sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 65 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein erster Entwurf eines solchen Leitfadens, ausgearbeitet von internationalen Expert*innen, wurde im November 2024 von der Europäischen Kommission präsentiert.&amp;lt;ref&amp;gt;&#039;&#039;European Commission&#039;&#039;, First Draft of the General-Purpose AI Code of Practice published, written by independent experts, https://digital-strategy.ec.europa.eu/en/library/first-draft-general-purpose-ai-code-practice-published-written-independent-experts (Stand 14. 11. 2024).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt. &lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der AILD und PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung betroffen sind, &lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
&lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (Art 86 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es handelt sich somit um ein Recht, das Betroffenen gegenüber Betreibern und nicht Anbietern zusteht. Anbieter wiederum haben Betreibern entsprechende Betriebsanleitungen bereitzustellen (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
Dies gilt nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese Subsidiarität ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren, dürfen Anbieter, wenn es unbedingt erforderlich ist, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Die DSGVO stellt primär auf den Verantwortlichen ab. Diese Rolle wird häufig der Betreiber iSd AI Act einnehmen. Die meisten Pflichten nach dem AI Act sind aber primär an Anbieter adressiert. Daher kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: DSA vs AI Act ===&lt;br /&gt;
* Bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, kann es zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act, bspw in Bezug auf die nach DSA und AI Act notwendige Risikoanalyse kommen. Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in Art 86 AI Act normierte Recht auf Erläuterung besteht potentiell eine Subsidiarität gegenüber der Auskunftspflicht nach Art 15 DSGVO iVm Art 22 DSGVO zur automatisierten Entscheidungsfindung, das für vollautomatisierte Entscheidungsfindung ein Recht auf Zugang zu besonderen Informationen wie der involvierten Logik gewährt.&lt;br /&gt;
&lt;br /&gt;
=== AILD ===&lt;br /&gt;
&lt;br /&gt;
* Insbesondere die AILD, aber auch eingeschränkter die PHRL neu, nimmt direkt auf den AI Act Bezug und verweist bei der Begriffsverwendung häufig auf diesen. Somit kann die AILD nicht ohne den Kontext des AI Act verstanden werden. So bilden die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]).&lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act übertragt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Durchführungsgesetz, das die Sanktionen konkretisiert.&lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (2024, iE)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act) (2024)&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (2024, iE)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024, iE)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (2024, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024)&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2025, iE)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (2024, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (2024, iE)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4014</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4014"/>
		<updated>2025-09-26T08:41:45Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Einführung */ Missverständliche Formulierung &amp;quot;verbietet&amp;quot; im 3. Absatz geklärt.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. August 2026 (mit Ausnahmen)|Gültig=inkraft}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen &lt;br /&gt;
von KI-Systemen oder&lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung&lt;br /&gt;
mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und &lt;br /&gt;
Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modellen (general pupose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB &lt;br /&gt;
Verarbeitung zur Vermeidung von &lt;br /&gt;
Verzerrungen Art 10), regulatory&lt;br /&gt;
sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (bspw Anbieter- und Betreiberpflichten)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Funktionierens des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz&lt;br /&gt;
(eingeschränkt); reine Forschungszwecke&lt;br /&gt;
&lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) bereits ab 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (bspw Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|eingeschränkte Pflichten für Betreiber (professionelle Nutzer*innen)&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (bspw Chatbots, Deepfakes)&lt;br /&gt;
|&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes (Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|Sonderregeln für GPAI-Modelle&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
Der AI Act ist der Versuch, in der EU eine sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) zu erreichen. Der AI Act folgt dabei primär einem produktsicherheitsrechtlichem Ansatz: Primäres Regulierungsziel ist die Sicherheit von KI-Systemen und Modellen.  &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme nach dem mit ihnen verbundenen Risiko in vier Klassen einteilt und KI-Systeme mit inakzeptablem Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, für gewisse Systeme lediglich Transparenzpflichten vorsieht und Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modell&#039;&#039;&#039;e bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot; (Art 3 Z 1 AI Act).&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Art 3 Z 1 nennt die unterschiedlichen Komponenten des KI-Systems. Ein KI-System ist demnach &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;&amp;lt;u&amp;gt;ableitet&amp;lt;/u&amp;gt;&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot; (Hervorhebungen nicht om Original). Nach ErwGr 12 sollte der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;sich nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen.&amp;quot;  &lt;br /&gt;
&lt;br /&gt;
Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;&amp;lt;u&amp;gt;abzuleiten&amp;lt;/u&amp;gt;&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze. &lt;br /&gt;
&lt;br /&gt;
Um Unklarheiten zu beseitigen, wird die Kommission Leitlinien vorlegen, um auch den Begriff KI-System zu klären.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; So wurden Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen aus. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen Nutzer) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollten:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität) unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act erlangt am 1. August 2024 Geltung und tritt generell am 2. August 2026 in Kraft und ist damit auf Sachverhalte anwendbar (Art 113 AI Act). Gestaffelt treten einige Bestimmungen jedoch bereits vorab in Kraft:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab 2. August 2025&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem 2. August 2027&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten:&amp;lt;ref&amp;gt;MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* unterschwellige Beeinflussung außerhalb des Bewusstseins, manipulative/täuschende Techniken &lt;br /&gt;
* Ausnutzen der Vulnerabilität/Schutzbedürftigkeit &lt;br /&gt;
* social scoring (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&lt;br /&gt;
* Bewertung des Risikos, dass eine Person eine Straftat begeht (ausschließlich aufgrund von Profiling)&lt;br /&gt;
* Erstellung/Erweiterung von Datenbanken zur Gesichtserkennung durch ungezieltes Auslesen von Gesichtsbildern &lt;br /&gt;
* Emotionserkennungssysteme am Arbeitsplatz oder in Bildungseinrichtungen &lt;br /&gt;
* biometrische Kategorisierung, Ableitung von sensiblen Daten (Rasse, politische Einstellung)&lt;br /&gt;
* biometrische Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&lt;br /&gt;
(Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act definiert Hochrisiko-KI-Systeme in Art 6. Dabei kennt sie zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige Hochrisiko-KI-Systeme&amp;quot; bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines Produkts verwendet werden oder das KI-System ist selbst ein solches Produkt fällt unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten:  &lt;br /&gt;
&lt;br /&gt;
(bspw biometrisch Identifizierung, kritische Infrastrukturen,  grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis der Entscheidungsfindung wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot;&lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Betreiber von Hochrisiko-KI-Systemen (Art 26 AI Act) ====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis verfügen und ihnen die erforderliche Unterstützung zukommen lassen&lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von &#039;&#039;&#039;Protokollen&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, wenn das KI-System am Arbeitsplatz eingesetzt wird&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet&lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführung oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn sie ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das nicht als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat dabei mit dem neuen Anbieter zusammenzuarbeiten, Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI muss beachtet werden, dass die Rollenverteilung im AI Act eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters ist, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden.&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots), sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als KI-Systeme mit minimalem Risiko bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Baustein/Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme in den risikobasierten Ansatz fallen (verbotene Systeme, Hochrisiko-KI-Systeme, Transparenzpflichten), unterliegen nur gewisse Modelle, nämlich GPAI-Modelle (in früheren Fassungen foundation models/Basismodelle) einer Sonderregulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei wird binär zwischen GPAI-Modelle ohne und GPAI-Modelle mit systemischem Risiko unterschieden. &lt;br /&gt;
&lt;br /&gt;
Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act),&lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über Fähigkeiten mit hohem Wirkungsgrad verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; beträgt. Dies dürfte zurzeit nur auf GPT-4 und potentiell Varianten von Gemini zutreffen. Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act).&lt;br /&gt;
* ein solches Risiko kann von Amts wegen/aufgrund einer Warnung von der Kommission in einer Entscheidung festgestellt werden (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc) &lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden. &lt;br /&gt;
* Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
* eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
* eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
* mögliche systemische Risiken auf Unionsebene bewerten und mindern,&lt;br /&gt;
* einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
* ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten.&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung dieser Verordnung beizutragen sollen (Art 56 Abs 1 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die Praxisleitfäden sollen mindestens die in Art 53-55 AI Act vorgesehenen Pflichten abdecken, darunter (Art 56 Abs 2 AI Act)&lt;br /&gt;
&lt;br /&gt;
* Mittel, mit denen sichergestellt wird, dass die in Art 53 Abs 1 lit a und b AI Act genannten Informationen (technische Dokumentation des Modells; Information und Dokumentation für die Integrierung des Modells) vor dem Hintergrund der Marktentwicklungen und technologischen Entwicklungen auf dem neuesten Stand gehalten werden&lt;br /&gt;
* die angemessene Detailgenauigkeit bei der Zusammenfassung der für das Training verwendeten Inhalte&lt;br /&gt;
* die Ermittlung von Art und Wesen der systemischen Risiken auf Unionsebene&lt;br /&gt;
* die Maßnahmen, Verfahren und Modalitäten für die Bewertung und das Management der systemischen Risiken auf Unionsebene&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von KI-Modellen mit allgemeinem Verwendungszweck sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 65 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein erster Entwurf eines solchen Leitfadens, ausgearbeitet von internationalen Expert*innen, wurde im November 2024 von der Europäischen Kommission präsentiert.&amp;lt;ref&amp;gt;&#039;&#039;European Commission&#039;&#039;, First Draft of the General-Purpose AI Code of Practice published, written by independent experts, https://digital-strategy.ec.europa.eu/en/library/first-draft-general-purpose-ai-code-practice-published-written-independent-experts (Stand 14. 11. 2024).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt. &lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der AILD und PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung betroffen sind, &lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
&lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (Art 86 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es handelt sich somit um ein Recht, das Betroffenen gegenüber Betreibern und nicht Anbietern zusteht. Anbieter wiederum haben Betreibern entsprechende Betriebsanleitungen bereitzustellen (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
Dies gilt nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese Subsidiarität ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren dürfen Anbieter, wenn es unbedingt erforderlich, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Da die DSGVO primär auf den Verantwortlichen abstellt, diese Rolle wird häufig der Betreiber iSd AI Act einnehmen, die meisten Pflichten nach dem AI Act aber primär an Anbieter adressiert sind, kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: DSA vs AI Act ===&lt;br /&gt;
* Bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, kann es zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act, bspw in Bezug auf die nach DSA und AI Act notwendige Risikoanalyse kommen. Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in Art 86 AI Act normierte Recht auf Erläuterung besteht potentiell eine Subsidiarität gegenüber der Auskunftspflicht nach Art 15 DSGVO iVm Art 22 DSGVO zur automatisierten Entscheidungsfindung, das für vollautomatisierte Entscheidungsfindung ein Recht auf Zugang zu besonderen Informationen wie der involvierten Logik gewährt.&lt;br /&gt;
&lt;br /&gt;
=== AILD ===&lt;br /&gt;
&lt;br /&gt;
* Insbesondere die AILD, aber auch eingeschränkter die PHRL neu, nimmt direkt auf den AI Act Bezug und verweist bei der Begriffsverwendung häufig auf diesen. Somit kann die AILD nicht ohne den Kontext des AI Act verstanden werden. So bilden die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]).&lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act übertragt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Durchführungsgesetz, das die Sanktionen konkretisiert.&lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (2024, iE)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act) (2024)&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (2024, iE)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024, iE)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (2024, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024)&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2025, iE)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (2024, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (2024, iE)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4013</id>
		<title>Artificial Intelligence Act (AIA)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Artificial_Intelligence_Act_(AIA)&amp;diff=4013"/>
		<updated>2025-09-26T08:26:15Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Einführung */ Neuformulierung der ersten beiden Sätze&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1689|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828|Kurztitel=Verordnung über Künstliche Intelligenz|Bezeichnung=AI Act (AIA)/KI-VO|Rechtsmaterie=Binnenmarkt, Künstliche Intelligenz|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1689, 1|Anzuwenden=2. August 2026 (mit Ausnahmen)|Gültig=inkraft}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergien&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Förderung von Innnovation und Vertrauen&lt;br /&gt;
|Anbieter (häufig Entwickler) bei in Verkehr bringen/in Betrieb nehmen &lt;br /&gt;
von KI-Systemen oder&lt;br /&gt;
|risikobasierter Ansatz&lt;br /&gt;
|direkte Verknüpfung&lt;br /&gt;
mit der RL über außervertragliche &lt;br /&gt;
Haftung (AILD)&lt;br /&gt;
|Geldbußen von bis zu 35 000 000 Euro/7% des gesamten weltweiten Jahresumsatzes (Verstoß gegen verbotene Praktiken)&lt;br /&gt;
|-&lt;br /&gt;
|Wahrung der Grundrechte und &lt;br /&gt;
Sicherheit von EU-Bürger*innen&lt;br /&gt;
|GPAI-Modellen (general pupose AI)&lt;br /&gt;
|Verbote von besonders riskanten Praktiken (zB social scoring, manipulative Systeme) &lt;br /&gt;
|einige Querbezüge zur DSGVO (zB &lt;br /&gt;
Verarbeitung zur Vermeidung von &lt;br /&gt;
Verzerrungen Art 10), regulatory&lt;br /&gt;
sandboxes&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3 % des gesamten weltweiten Jahresumsatzes (bspw Anbieter- und Betreiberpflichten)&lt;br /&gt;
|-&lt;br /&gt;
|Förderung des Funktionierens des Binnenmarktes&lt;br /&gt;
|Ausnahmen: militärische Zwecke; Systeme unter open-source-Lizenz&lt;br /&gt;
(eingeschränkt); reine Forschungszwecke&lt;br /&gt;
&lt;br /&gt;
Inkrafttreten am 1. August 2024; Geltung ab 2. August 2026; &lt;br /&gt;
&lt;br /&gt;
einige Aspekte (verbotene Systeme) bereits ab 2. Februar 2025&lt;br /&gt;
|strenge Regulierung von Hochrisiko-&lt;br /&gt;
KI-Systemen (bspw Risikomanagement, &lt;br /&gt;
Datenqualität, Dokumentation, Transparenz,&lt;br /&gt;
menschliche Aufsicht) &lt;br /&gt;
|Integrierung/Kombination von Anforderungen stellenweise möglich (zB Riskomanagementsysteme)&lt;br /&gt;
|Geldbußen von bis zu 7 500 000 Euro/1% des gesamten weltweiten Jahresumsatzes (Bereitstellung von falschen, unvollständigen oder irreführenden Informationen)&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|eingeschränkte Pflichten für Betreiber (professionelle Nutzer*innen)&lt;br /&gt;
|Transparenzpflichten für gewisse KI-Systeme (bspw Chatbots, Deepfakes)&lt;br /&gt;
|&lt;br /&gt;
|Geldbußen von bis zu 15 000 000 Euro/3% des gesamten weltweiten Jahresumsatzes (Verstöße gegen Pflichten von Anbietern von GPAI-Modellen)&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|Sonderregeln für GPAI-Modelle&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
[[Datei:AI Act Risikopyramide Neu.png|mini|354x354px|Risikopyramide des AI Act; &#039;&#039;Europäische Kommission&#039;&#039;, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.]] &lt;br /&gt;
Der AI Act ist der Versuch, in der EU eine sektorübergreifende Regulierung von Künstlicher Intelligenz (KI) zu erreichen. Der AI Act folgt dabei primär einem produktsicherheitsrechtlichem Ansatz: Primäres Regulierungsziel ist die Sicherheit von KI-Systemen und Modellen.  &lt;br /&gt;
&lt;br /&gt;
Der AI Act verfolgt dabei kontrastierende Ziele: So soll das &#039;&#039;&#039;Funktionieren des Binnenmarktes&#039;&#039;&#039; durch einen einheitlichen Rechtsrahmen verbessert, &#039;&#039;&#039;menschenzentrierte und vertrauenswürdige KI&#039;&#039;&#039; gefördert und gleichzeitig ein hohes &#039;&#039;&#039;Schutzniveau&#039;&#039;&#039; in Bezug auf Gesundheit, Sicherheit und der Grundrechte sichergestellt, der &#039;&#039;&#039;Schutz vor schädlichen Auswirkungen&#039;&#039;&#039; von KI-Systemen gewährleistet und gleichzeitig die &#039;&#039;&#039;Innovation&#039;&#039;&#039; unterstützt werden (ErwGr 1 AI Act).  &lt;br /&gt;
&lt;br /&gt;
Kernstück des AI Act ist ein &#039;&#039;&#039;risikobasierter Ansatz&#039;&#039;&#039;, der KI-Systeme abhängig vom mit ihnen verbundenen Risiko verbietet, Hochrisiko-KI-Systeme stark reguliert, Transparenzpflichten für gewisse Systeme vorsieht oder Systeme mit minimalem Risiko unberührt lässt. &lt;br /&gt;
&lt;br /&gt;
Durch die Prominenz von ChatGPT wurden spät im Gesetzgebungsprozess auch noch spezielle Bestimmungen in Bezug auf sog &#039;&#039;&#039;general purpose AI (GPAI) Modell&#039;&#039;&#039;e bzw KI-Modelle mit allgemeinem Verwendungszweck eingefügt.&amp;lt;ref&amp;gt;MwN zu diesen Entwicklungen &#039;&#039;Hacker/Engel/Mauer&#039;&#039;, Regulating ChatGPT and other Large Generative AI Models, in ACM (Hrsg), FAccT &#039;23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (2023) 1112, https://doi.org/10.1145/3593013.359406; &#039;&#039;Steindl&#039;&#039;, Legistisch innovativ und technologisch auf neuerem Stand: Das EU-Parlament und die Verhandlungen zum AI Act, RdW 2023, 1.&amp;lt;/ref&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
&lt;br /&gt;
=== Sachlicher Anwendungsbereich ===&lt;br /&gt;
&lt;br /&gt;
==== KI-Systeme ====&lt;br /&gt;
Zentraler Anknüpfungspunkt für die Anwendbarkeit des AI Act ist dabei das Vorliegen eines &amp;quot;KI-Systems&amp;quot; (Art 3 Z 1 AI Act).&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Art 3 Z 1 nennt die unterschiedlichen Komponenten des KI-Systems. Ein KI-System ist demnach &amp;quot;ein &#039;&#039;&#039;maschinengestütztes&#039;&#039;&#039; System, das für einen in &#039;&#039;&#039;unterschiedlichem Grade autonomen Betrieb&#039;&#039;&#039; ausgelegt ist und das nach seiner Betriebsaufnahme &#039;&#039;&#039;anpassungsfähig sein kann&#039;&#039;&#039; und das aus den erhaltenen &#039;&#039;&#039;Eingaben&#039;&#039;&#039; für &#039;&#039;&#039;explizite oder implizite Ziele&#039;&#039;&#039; &#039;&#039;&#039;&amp;lt;u&amp;gt;ableitet&amp;lt;/u&amp;gt;&#039;&#039;&#039;, wie &#039;&#039;&#039;Ausgaben&#039;&#039;&#039; wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die &#039;&#039;&#039;physische oder virtuelle Umgebungen beeinflussen können&#039;&#039;&#039;.&amp;quot; (Hervorhebungen nicht om Original). Nach ErwGr 12 sollte der Begriff &amp;quot;KI-System&amp;quot; &amp;quot;sich nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen.&amp;quot;  &lt;br /&gt;
&lt;br /&gt;
Differenziert zum Begriff &amp;quot;KI-System&amp;quot; &#039;&#039;Wendehorst/Nessler/Aufreiter/Aichinger&#039;&#039;, Der Begriff des &amp;quot;KI-Systems&amp;quot; unter der neuen KI-VO, MMR 2024, 605.&amp;lt;/ref&amp;gt; Das wichtigsten Abgrenzungsmerkmal der breit gehaltenen Definition ist die Fähigkeit, &#039;&#039;&#039;&amp;lt;u&amp;gt;abzuleiten&amp;lt;/u&amp;gt;&#039;&#039;&#039;. Diese Fähigkeit kann sich auf den Prozess der Erzeugung von Ausgaben sowie auf die Fähigkeit, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten, beziehen. Der Begriff umfasst damit sowohl Machine-Learning- als auch (ältere) logik- und wissensgestützte Ansätze. &lt;br /&gt;
&lt;br /&gt;
Um Unklarheiten zu beseitigen, wird die Kommission Leitlinien vorlegen, um auch den Begriff KI-System zu klären.&amp;lt;ref&amp;gt;Dafür wurde ein Konsultationsprozess durchgeführt, vgl &#039;&#039;European Commission&#039;&#039;, Commission launches consultation on AI Act prohibitions and AI system definition, https://digital-strategy.ec.europa.eu/en/news/commission-launches-consultation-ai-act-prohibitions-and-ai-system-definition (Stand 13. 11. 2024).&amp;lt;/ref&amp;gt; So wurden Unklarheiten bemängelt, zB ob hybride (neurosymbolische) Systeme unter den Begriff fallen.&amp;lt;ref&amp;gt;&#039;&#039;EDPS&#039;&#039;, EDPS comments to the AI Office’s consultation on the application of the definition of an AI system and the prohibited AI practices established in the AI Act launched by the European AI Office (2024) 3, https://www.edps.europa.eu/data-protection/our-work/publications/formal-comments/2024-12-19-edps-ai-offices-consultation-application-definition-ai-system-and-prohibited-ai-practices-established-ai-act-launched-european-ai_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die entsprechenden (unverbindlichen) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission wurden am 6. Februar 2025 veröffentlicht und stellen bspw klar, welche Systeme nicht in den Anwendungsbereich fallen (zB etablierte lineare Modelle).&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), C(2025) 924 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== GPAI-Modelle/Modelle mit allgemeinem Verwendungszweck ====&lt;br /&gt;
&#039;&#039;&#039;General Purpose AI Modelle&#039;&#039;&#039; (auf Deutsch &amp;quot;Modelle mit allgemeinem Verwendungszweck&amp;quot;&amp;lt;ref&amp;gt;Art 3 Z 63 KI-VO definiert ein solches Modell als &amp;quot;ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine &#039;&#039;&#039;erhebliche allgemeine Verwendbarkeit aufweist&#039;&#039;&#039; und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein &#039;&#039;&#039;breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen&#039;&#039;&#039;, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.&amp;quot;&amp;lt;/ref&amp;gt;) zeichnen sich durch ihre erhebliche allgemeine Verwendbarkeit und der Fähigkeit, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen aus. Der Begriff &amp;quot;Modell&amp;quot; darf dabei, da Modelle gesondert reguliert werden, nicht mit dem Begriff eines KI-Systems verwechselt werden. Denn damit &amp;quot;KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich&amp;quot; (ErwGr 97 AI Act). Ein KI-System bzw GPAI-System,&amp;lt;ref&amp;gt;Art 3 Z 66 KI-VO: &amp;quot;&#039;KI-System mit allgemeinem Verwendungszweck&#039; ein KI-System, das auf einem &#039;&#039;&#039;KI-Modell mit allgemeinem Verwendungszweck beruht&#039;&#039;&#039; und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.&amp;quot; (Hervorhebungen nicht im Original)&amp;lt;/ref&amp;gt; das auf einem GPAI-Modell beruht, muss dabei wiederum nach dem risikobasierten Ansatz des AI Act eingestuft werden. &lt;br /&gt;
&lt;br /&gt;
=== Personeller Anwendungsbereich ===&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Akteure.svg|links|mini|390x390px|Überblick über die Interaktion der einzelnen Akteure im AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html. ]]  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf die Akteure ist primär zwischen Anbietern und Betreibern zu unterscheiden.  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Anbieter&#039;&#039;&#039; ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt (Art 3 Z 3 AI Act). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Betreiber&#039;&#039;&#039; (in früheren Fassungen Nutzer) ist eine Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet (Art 3 Z 4 AI Act). &lt;br /&gt;
&lt;br /&gt;
Daneben existieren auch weniger relevante Akteure wie Einführer, Händler und Bevollmächtigte. &lt;br /&gt;
&lt;br /&gt;
=== (Geographischer) Anwendungsbereich (Art 2 AI Act) ===&lt;br /&gt;
Der (geographische) Anwendungsbereich des AI Act (Art 2) umfasst dabei primär:&amp;lt;ref&amp;gt;Sekundär werden noch weitere Beteiligte von geringerer Relevanz erfasst: &lt;br /&gt;
&lt;br /&gt;
Einführer und Händler von KI-Systemen; Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen; Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind; betroffene Personen, die sich in der Union befinden.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
* Anbieter, die in der Union KI-Systeme in Verkehr bringen&amp;lt;ref&amp;gt;Art 3 Z 9 KI-VO: &amp;quot;&#039;Inverkehrbringen&#039; die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder in Betrieb nehmen&amp;lt;ref&amp;gt;Art 3 Z 11 KI-VO: &amp;quot;&#039;Inbetriebnahme&#039; die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Art 3 Z 10 KI-VO: &amp;quot;&#039;Bereitstellung auf dem Markt&#039; die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot;.&amp;lt;/ref&amp;gt; oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind&lt;br /&gt;
* Betreiber von KI-Systemen,  die ihren Sitz in der Union haben oder in der Union befinden&lt;br /&gt;
* Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird&lt;br /&gt;
&lt;br /&gt;
=== Ausnahmen (Art 2 Abs 2 ff AI Act) ===&lt;br /&gt;
Art 2 Abs 2 ff AI Act enthält eine Reihe von Ausnahmen vom Anwendungsbereich, wobei hier die wichtigsten vorgestellt werden sollten:&lt;br /&gt;
&lt;br /&gt;
* Bereiche, die &#039;&#039;&#039;&amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; unter das Unionsrecht fallen&#039;&#039;&#039; (zB nationale Sicherheit): KI-Systeme (ausschließlich) für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit&lt;br /&gt;
* KI-Systeme/KI-Modelle, die eigens für den &#039;&#039;&#039;&amp;lt;u&amp;gt;alleinigen&amp;lt;/u&amp;gt; Zweck der wissenschaftlichen Forschung und Entwicklung&#039;&#039;&#039; entwickelt und in Betrieb genommen werden.&lt;br /&gt;
* &#039;&#039;&#039;Forschungs-, Test- und Entwicklungstätigkeiten&#039;&#039;&#039; zu KI-Systemen/KI-Modellen, &#039;&#039;&#039;&amp;lt;u&amp;gt;bevor&amp;lt;/u&amp;gt;&#039;&#039;&#039; diese in Verkehr gebracht oder in Betrieb genommen werden.&amp;lt;ref&amp;gt;Dabei ist zu beachten, dass Tests unter Realbedingungen nicht unter diesen Ausschluss fallen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Der AI Act gilt für Betreiber, die natürliche Personen sind und KI-Systeme im Rahmen einer &#039;&#039;&#039;ausschließlich persönlichen und nicht beruflichen Tätigkeit&#039;&#039;&#039; verwenden (&amp;quot;Haushaltsausnahme&amp;quot;)&lt;br /&gt;
*&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis zur Sonderregelung von älterem Produktsicherheitsrecht (zB Mobilität)&lt;br /&gt;
|-&lt;br /&gt;
|Produkte, die unter Produktsicherheitsvorschriften mit dem älteren Ansatz (old approach) fallen und in Anhang I Abschnitt B gelistet werden (zB Luftfahrt und Mobilität) unterliegen nur eingeschränkt dem AI Act (Art 2 Abs 2 AI Act). Sie sind zwar nicht vollständig vom Anwendungsbereich ausgenommen, für sie gelten jedoch nur wenige Bestimmungen (Art 6 Abs 1, Art 102-109, Art 112 und Art 57 AI Act zu Reallaboren). &lt;br /&gt;
In der Praxis werden die Anforderungen des AI Act dabei &amp;quot;indirekt&amp;quot; im Wege der delegierten Gesetzgebung/von Durchführungsrechtsakten dieser Produktsicherheitsrechtsakte zur Anwendung kommen. &lt;br /&gt;
&lt;br /&gt;
Die Trennung von Anhang I in Abschnitt A, der direkt dem AI Act unterfällt, und Abschnitt B, für den diese Wirkung indirekt erzielt wird, sollte somit in der Praxis beachtet werden. &lt;br /&gt;
|}&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich (Art 113 AI Act) ===&lt;br /&gt;
Der AI Act erlangt am 1. August 2024 Geltung und tritt generell am 2. August 2026 in Kraft und ist damit auf Sachverhalte anwendbar (Art 113 AI Act). Gestaffelt treten einige Bestimmungen jedoch bereits vorab in Kraft:&amp;lt;ref&amp;gt;&#039;&#039;Future of Privacy Forum (FPF)&#039;&#039;, EU AI Act. A Comprehensive Implementation &amp;amp; Compliance Timeline, https://fpf.org/wp-content/uploads/2024/07/FPF_EU_AI_Act_Timeline_July_24.pdf. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* allgemeine Bestimmungen (inklusive KI-Kompetenz) und verbotene Praktiken ab &#039;&#039;&#039;2. Februar 2025&#039;&#039;&#039;&lt;br /&gt;
* Bestimmungen über Notifizierende Behörden und notifizierte Stellen; GPAI-Modelle, Governance, Sanktionen, Vertraulichkeit ab 2. August 2025&lt;br /&gt;
* Artikel 6 Absatz 1 (eingebettete Hochrisiko-KI-Systeme) und die entsprechenden Pflichten ab dem 2. August 2027&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, AI Act Zeitlicher Rahmen.svg|mini|394x394px|Überblick über den abgestuften zeitlichen Geltungsbereich des AI Act. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.|zentriert]]&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== KI-Kompetenz/AI literacy (Art 4 AI Act) ===&lt;br /&gt;
Als allgemeine Bestimmung für alle KI-Systeme fordert Art 4 AI Act, dass die Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an &amp;quot;KI-Kompetenz&amp;quot; verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit inakzeptablem Risiko/verbotene Praktiken (Art 5 AI Act) ===&lt;br /&gt;
Nach Art 5 AI Act sind gewisse Praktiken im KI-Bereich verboten:&amp;lt;ref&amp;gt;MwN &#039;&#039;Neuwirth&#039;&#039;, Prohibited artificial intelligence practices in the proposed EU artificial intelligence act (AIA), CLSR 2023, https://doi.org/10.1016/j.clsr.2023.105798; &#039;&#039;Rostaski/Weiss&#039;&#039;, § 3. Verbotene Praktiken, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 35.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* unterschwellige Beeinflussung außerhalb des Bewusstseins, manipulative/täuschende Techniken &lt;br /&gt;
* Ausnutzen der Vulnerabilität/Schutzbedürftigkeit &lt;br /&gt;
* social scoring (Bewertung/Einstufung von Personen/Gruppen von Personen auf der Grundlage ihres sozialen Verhaltens/Eigenschaften/Persönlichkeitsmerkmale)&lt;br /&gt;
* Bewertung des Risikos, dass eine Person eine Straftat begeht (ausschließlich aufgrund von Profiling)&lt;br /&gt;
* Erstellung/Erweiterung von Datenbanken zur Gesichtserkennung durch ungezieltes Auslesen von Gesichtsbildern &lt;br /&gt;
* Emotionserkennungssysteme am Arbeitsplatz oder in Bildungseinrichtungen &lt;br /&gt;
* biometrische Kategorisierung, Ableitung von sensiblen Daten (Rasse, politische Einstellung)&lt;br /&gt;
* biometrische Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (zahlreiche Ausnahmen)&lt;br /&gt;
(Unverbindliche) &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; der Kommission zu den verbotenen Praktiken konkretisieren die verbotenen Praktiken insbesondere durch zahlreiche Beispiele.&amp;lt;ref&amp;gt;Annex to the Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), C(2025) 884 final, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Hochrisiko-KI-Systeme (Art 6 AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Einstufung ====&lt;br /&gt;
Der AI Act definiert Hochrisiko-KI-Systeme in Art 6. Dabei kennt sie zwei Varianten dieser Systeme, die in der Literatur - nicht aber im AI Act selbst - als &amp;quot;eingebettete&amp;quot; und &amp;quot;eigenständige Hochrisiko-KI-Systeme&amp;quot; bezeichnet werden. &amp;lt;ref&amp;gt;MwN &#039;&#039;Martini&#039;&#039;, § 4. Hochrisiko-KI-Systeme: Risikobasierter Ansatz, in &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023) 51 (61 ff).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Darüber hinaus enthält Art 6 Abs 3 AI Act Ausnahmen von der Einstufung als Hochrisiko-KI-System.&lt;br /&gt;
&lt;br /&gt;
Nach Art 6 Abs 5 AI Act hat die Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens bis zum 2. Februar 2026 &#039;&#039;&#039;Leitlinien&#039;&#039;&#039; zur praktischen Umsetzung und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereitzustellen.&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eingebettete&amp;quot; Hochrisiko-KI-Systeme  (embedded high-risk AI systems) (Art 6 Abs 1 AI Act) =====&lt;br /&gt;
Nach Art 6 Abs 1 AI Act gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei Bedingungen erfüllt sind:&lt;br /&gt;
* das KI-System soll als Sicherheitsbauteil eines Produkts verwendet werden oder das KI-System ist selbst ein solches Produkt fällt unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union&lt;br /&gt;
* das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden &lt;br /&gt;
&lt;br /&gt;
Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).  &lt;br /&gt;
&lt;br /&gt;
Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Beispiel&lt;br /&gt;
|-&lt;br /&gt;
|Software kann ein &#039;&#039;&#039;Medizinprodukt&#039;&#039;&#039; im Sinne der Medizinprodukteverordnung (MPVO) darstellen.&amp;lt;ref&amp;gt;MwN &#039;&#039;Schreitmüller&#039;&#039;, Regulierung intelligenter Medizinprodukte. Eine Analyse unter besonderer Berücksichtigung der MPVO und DSGVO (2023).&amp;lt;/ref&amp;gt; &lt;br /&gt;
Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko (zB Diagnose oder Überwachung), unterliegen einer Konformitätsbewertung unter Einbeziehung einer &amp;quot;benannten Stelle&amp;quot;, das heißt einer externen Konformitätsbewertungsstelle. &lt;br /&gt;
Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: &lt;br /&gt;
&lt;br /&gt;
* einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I Abschnitt A genannt wird, und &lt;br /&gt;
* anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt &amp;quot;Dritter&amp;quot; (mit Ausnahme eines Medizinproduktes der Klasse I).&lt;br /&gt;
Software als Medizinprodukt fällt somit &amp;lt;u&amp;gt;gleichzeitig&amp;lt;/u&amp;gt; als Medizinprodukt unter die MPVO und, sofern die Software den KI-Begriff erfüllt, als Hochrisiko-KI-System unter den AI Act.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
===== &amp;quot;Eigenständige&amp;quot; Hochrisiko-KI-Systeme (stand-alone high-risk AI systems) (Art 6 Abs 2 AI Act) =====&lt;br /&gt;
Die zweite Variante von &amp;quot;eigenständigen&amp;quot; Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 AI Act definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten:  &lt;br /&gt;
&lt;br /&gt;
(bspw biometrisch Identifizierung, kritische Infrastrukturen,  grundlegende öffentliche und private Dienste/Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle).  &lt;br /&gt;
&lt;br /&gt;
Diese Liste kann dabei mittels delegierter Rechtsakte der Kommission geändert werten (Art 7 AI Act). &lt;br /&gt;
&lt;br /&gt;
===== Ausnahmen (Art 6 Abs 3 AI Act) =====&lt;br /&gt;
Art 6 Abs 3 AI Act enthält als Abweichung &#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; von der Einstufung als &amp;quot;eigenständiges&amp;quot; Hochrisiko-KI-System. Die Ausnahmen greifen dann, wenn sich zeigt, dass ein in Anhang III genanntes System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis der Entscheidungsfindung wesentlich beeinflusst.&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 2. UAbs enthält dabei vier alternative Bedingungen, die die genannten Kriterien erfüllen. ErwGr 53 liefert konkretisierende Beispiele. Ein KI-System gilt somit als nicht hochriskant, wenn &lt;br /&gt;
# es dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen (bspw ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt)&lt;br /&gt;
# es dazu bestimmt ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern (bspw KI-Systeme, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen&lt;br /&gt;
# es dazu bestimmt ist, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und nicht dazu gedacht ist, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen (bspw KI-Systeme, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen)&lt;br /&gt;
# es dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist (bspw intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören)&lt;br /&gt;
&lt;br /&gt;
Art 6 Abs 3 AI Act enthält dabei auch eine &#039;&#039;&#039;Rückausnahme&#039;&#039;&#039;, die einen Bezug zur DSGVO herstellt. Ein KI-System nach Anhang III gilt &amp;quot;immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.&amp;quot;&lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act) ====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen einer Reihe von Anforderungen genügen, die in einem sog Konformitätsbewertungsverfahren geprüft werden, darunter:&lt;br /&gt;
&lt;br /&gt;
===== Risikomanagementsystem (Art 9 AI Act) =====&lt;br /&gt;
Ein umfassendes Risikomanagementsystem muss eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. &lt;br /&gt;
&lt;br /&gt;
Dies umfasst die Ermittlung und Analyse von &#039;&#039;&#039;Risiken&#039;&#039;&#039;, ihre Abschätzung und Bewertung sowie die Ergreifung von Risikomanagementmaßnahmen und die Abwägung der Maßnahmen mit dem Restrisiko.&lt;br /&gt;
&lt;br /&gt;
Vorgesehen sind auch Testverfahren. &lt;br /&gt;
&lt;br /&gt;
===== Daten und Daten-Governance (Art 10 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die gewissen &#039;&#039;&#039;Qualitätskriterien&#039;&#039;&#039; entsprechen. &lt;br /&gt;
&lt;br /&gt;
So müssen die Datensätze neben Verfahren in Bezug auf konzeptionelle Entscheidungen, die Datenerhebung und Aufbereitung  (hinreichend) &#039;&#039;&#039;relevant und so weit wie möglich repräsentativ, fehlerfrei und vollständig&#039;&#039;&#039; sein und Verzerrungen (Bias) müssen vermieden werden.&lt;br /&gt;
&lt;br /&gt;
Merkmale/Elemente, die für &#039;&#039;&#039;besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen&#039;&#039;&#039; typisch sind, müssen berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
In Bezug auf &#039;&#039;&#039;Bias&#039;&#039;&#039; ist auch eine Regelung zur Verarbeitung von besonders sensiblen personenbezogenen Daten zur Erkennung und Korrektur enthalten, die mit der DSGVO interagiert (Art 10 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
===== Technische Dokumentation (Art 11 AI Act) =====&lt;br /&gt;
Als Basis der Konformitätsbewertung muss eine technische Dokumentation erstellt werden, bevor das Hochrisiko-KI-System in Verkehr gebracht oder in Betrieb genommen wird. Diese ist stets auf dem neuesten Stand zu halten. &lt;br /&gt;
&lt;br /&gt;
Aus ihr muss der &#039;&#039;&#039;Nachweis&#039;&#039;&#039; hervorgehen, wie das Hochrisiko-KI-System die Anforderungen der Art 8 bis 15 AI Act erfüllt. &lt;br /&gt;
&lt;br /&gt;
Durch die Dokumentation sollen den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt.&lt;br /&gt;
&lt;br /&gt;
KMUs können diese Dokumentation in &#039;&#039;&#039;vereinfachter Weise&#039;&#039;&#039; bereitstellen.&lt;br /&gt;
&lt;br /&gt;
===== Aufzeichnungspflichten (Art 12 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen mit Funktionsmerkmalen konzipiert und entwickelt werden, die eine &#039;&#039;&#039;automatische Aufzeichnung&#039;&#039;&#039; von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. &lt;br /&gt;
&lt;br /&gt;
Die Protokollierung (zB von Situationen, die dazu führen können, dass das System ein Risiko birgt oder dass es zu einer wesentlichen Änderung kommt) gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus &#039;&#039;&#039;rückverfolgbar&#039;&#039;&#039; ist.&lt;br /&gt;
&lt;br /&gt;
===== Transparenz und Bereitstellung von Informationen für die Betreiber (Art 13 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend &#039;&#039;&#039;transparent&#039;&#039;&#039; ist, damit die Nutzer die Ergebnisse des Systems angemessen &#039;&#039;&#039;interpretieren&#039;&#039;&#039; und verwenden können. &lt;br /&gt;
&lt;br /&gt;
Auch müssen den Nutzern/Betreibern entsprechende &#039;&#039;&#039;Betriebsanleitungen&#039;&#039;&#039; (zB zu Merkmalen, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems) zur Verfügung gestellt werden.&lt;br /&gt;
&lt;br /&gt;
===== Menschliche Aufsicht (Art 14 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie während der Dauer der Verwendung des KI-Systems von natürlichen Personen &#039;&#039;&#039;wirksam beaufsichtigt&#039;&#039;&#039; werden können.&lt;br /&gt;
&lt;br /&gt;
Dies dient der Verhinderung/Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte und erfordert bspw die Möglichkeit die Fähigkeiten und Grenzen des KI-Systems angemessen und verstehen und seinen Betrieb zu überwachen, Maßnahmen gegen automation bias und die Option, das System nicht zu verwenden, seine Ausgabe außer Acht zu lassen oder in den Betrieb einzugreifen bzw ihn mit einer &amp;quot;Stopptaste&amp;quot; zu unterbrechen.&lt;br /&gt;
&lt;br /&gt;
===== Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act) =====&lt;br /&gt;
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie ein &#039;&#039;&#039;angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit&#039;&#039;&#039; erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.&lt;br /&gt;
&lt;br /&gt;
Dies umfasst somit Maßnahmen in Hinblick auf &#039;&#039;&#039;innere Fehlerquellen&#039;&#039;&#039; (Performanzmetriken für Genauigkeit, Widerstandsfähigkeit gegenüber Fehlern, Störungen, Unstimmigkeiten für Robustheit; Maßnahmen gegen Rückkopplungsschleifen), als auch &#039;&#039;&#039;Angriffe von Außen&#039;&#039;&#039; (Cybersicherheit).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art 16-21 AI Act) ====&lt;br /&gt;
Anbieter von Hochrisiko-KI-Systemen müssen als wichtigste Pflichten ua (Art 16 AI Act): &lt;br /&gt;
&lt;br /&gt;
* sicherstellen, dass diese Systemen die Anforderungen der Art 8-15 AI Act erfüllen&lt;br /&gt;
* damit verbunden sicherstellen, dass sie einem Konformitätsbewertungsverfahren unterzogen werden (resultierend in einer Konformitätserklärung und einer CE-Kennzeichnung)&lt;br /&gt;
* über ein Qualitätsmanagementsystem (Art 17 AI Act) verfügen (ua Konzept zur Einhaltung der Regulierungsvorschriften, Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems; Untersuchungs-, Test- und Validierungsverfahren; Systeme und Verfahren für das Datenmanagement)&lt;br /&gt;
* Dokumentation (Art 18 AI Act) und Protokolle (Art 19 AI Act) aufbewahren&lt;br /&gt;
* einer Registrierungspflicht nachkommen (Art 49 AI Act) und&lt;br /&gt;
* erforderliche Korrekturmaßnahmen ergreifen und Informationen bereitstellen (Art 20 AI Act)&lt;br /&gt;
&lt;br /&gt;
==== Konformitätsbewertungsverfahren (Art 43 AI Act) ====&lt;br /&gt;
Zentrale Anbieterpflicht ist die Durchführung eines sog Konformitätsbewertungsverfahrens. In diesem Verfahren wird überprüft, ob das Hochrisiko-KI-System die Anforderungen nach Art 8-15 AI Act erfüllt (Art 3 Z 20 AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei existieren zwei verschiedene Varianten dieses Verfahrens (Art 43 AI Act). &lt;br /&gt;
&lt;br /&gt;
Diese unterscheiden sich primär darin, ob eine notifizierte Stelle, das heißt eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt und die nach dem AI Act &amp;quot;notifiziert&amp;quot; wurde (Art 3 Z 21, 22 AI Act). Die notifizierten Stellen finden sich in einer entsprechenden [https://webgate.ec.europa.eu/single-market-compliance-space/notified-bodies/notified-body-list?filter=countryId:40,notificationStatusId:1 Datenbank].&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;interne Kontrolle&#039;&#039;&#039; (Anhang VI): Eigenzertifizierung, ohne Beiziehung einer notifizierten Stelle (vorgesehen für eigenständige Hochrisiko-KI-Systeme mit Ausnahme des Bereiches Biometrie)&lt;br /&gt;
* &#039;&#039;&#039;Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation&#039;&#039;&#039; unter Beteiligung einer notifizierten Stelle (Anhang VII) (primär vorgesehen für eingebettete Hochrisiko-KI-Systeme)&lt;br /&gt;
&lt;br /&gt;
Bei eingebetteten Hochrisiko-KI-Systemen ist vorgesehen, dass die nach dem Harmonisierungsrechtsakt einschlägige Konformitätsbewertung (zB nach Medizinprodukteverordnung) durchgeführt wird und die Aspekte des AI Act in dieses Verfahren einbezogen werden (Art 43 Abs 3 AI Act). Ein solches &amp;quot;kombiniertes&amp;quot; Verfahren kann für einer notifizierten Stelle durchgeführt werden, sofern diese die notwendige Expertise, etc aufweist.&lt;br /&gt;
&lt;br /&gt;
Bei wesentlichen Änderungen des Systems ist eine erneute Durchführung notwendig. Dies gilt für Systeme, die im Betrieb weiterlernen, nicht für vorab durch den Anbieter festgelegte Änderungen des Systems und seiner Leistung (Art 43 Abs 4 AI Act).&lt;br /&gt;
&lt;br /&gt;
Der Anbieter hat daraufhin eine &#039;&#039;&#039;EU-Konformitätserklärung&#039;&#039;&#039; (Art 47 AI Act) auszustellen, eine &#039;&#039;&#039;CE-Kennzeichnung&#039;&#039;&#039; (Art 48 AI Act) anzubringen und das (selbständige) Hochrisiko-KI-System in einer Datenbank zu &#039;&#039;&#039;registrieren&#039;&#039;&#039; (Art 49 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Betreiber von Hochrisiko-KI-Systemen (Art 26 AI Act) ====&lt;br /&gt;
Betreiber von Hochrisiko-KI-Systemen unterliegen im Vergleich zu Anbietern nur eingeschränkten Pflichten. Sie müssen ua &lt;br /&gt;
&lt;br /&gt;
* geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie KI-Systeme &#039;&#039;&#039;entsprechend den beigefügten Betriebsanleitungen verwenden&#039;&#039;&#039;&lt;br /&gt;
* die &#039;&#039;&#039;menschliche Aufsicht&#039;&#039;&#039; an natürliche Personen übertragen, die über die erforderliche Kompetenz, Ausbildung und Befugnis verfügen und ihnen die erforderliche Unterstützung zukommen lassen&lt;br /&gt;
* soweit die &#039;&#039;&#039;Eingabedaten&#039;&#039;&#039; ihrer Kontrolle unterliegen dafür sorgen, dass diese der Zweckbestimmung des Hochrisiko-KI-Systems entsprechend und ausreichend repräsentativ sind&lt;br /&gt;
*den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung &#039;&#039;&#039;überwachen&#039;&#039;&#039; und gegebenenfalls Anbieter iSv Art 72 AI Act &#039;&#039;&#039;informieren&#039;&#039;&#039;. Besteht Grund zur Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Art 79 Abs 1 AI Act birgt, so informieren Betreiber unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Ähnliches gilt bei Feststellung eines schwerwiegenden Vorfalls.&lt;br /&gt;
*Aufbewahrung von &#039;&#039;&#039;Protokollen&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer&#039;&#039;&#039;, wenn das KI-System am Arbeitsplatz eingesetzt wird&lt;br /&gt;
*&#039;&#039;&#039;Information an natürliche Personen&#039;&#039;&#039;, dass sie der Verwendung eines Hochrisiko-KI-Systems unterliegen, wenn das Hochrisiko-KI-Systeme natürliche Personen betreffende Entscheidungen trifft oder bei solchen Entscheidungen Unterstützung leistet&lt;br /&gt;
&lt;br /&gt;
===== Grundrechte-Folgenabschätzung (Art 27 AI Act) =====&lt;br /&gt;
Als Gegenstück zum Risikomanagement (Art 9 AI Act), das Anbieter von Hochrisiko-KI-Systemen betrifft, müssen gewisse Betreiber&amp;lt;ref&amp;gt;Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b [Kreditwürdigkeitsprüfung und Bonitätsbewertung] und c [Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Lebens- und Krankenversicherungen]. Eine Ausnahme besteht wiederum im Bereich der kritischen Infrastruktur (Anhang III Nummer 2).&amp;lt;/ref&amp;gt; von Hochrisiko-KI-Systemen vor der ersten Verwendung eine Abschätzung der Risiken auf Grundrechte durchführen (Art 27 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Schneeberger&#039;&#039;, Menschenrechtsfolgenabschätzungen im Artificial Intelligence Act, juridikum 2024, 265.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Die Abschätzung umfasst dabei&lt;br /&gt;
&lt;br /&gt;
* eine Beschreibung der Verfahren, bei denen das Hochrisiko-KI-System verwendet wird&lt;br /&gt;
* eine Beschreibung des Zeitraums und der Häufigkeit der Verwendung &lt;br /&gt;
* die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung betroffen sein könnten&lt;br /&gt;
* die spezifischen Schadensrisiken, die sich auf die ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten&lt;br /&gt;
* eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht &lt;br /&gt;
* die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind.&lt;br /&gt;
&lt;br /&gt;
Das Büro für KI wird dabei ein Muster für einen Fragebogen entwickeln, um dieser Pflicht in vereinfachter Weise nachkommen zu können (Art 27 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
==== Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act) ====&lt;br /&gt;
[[Datei:KI-Servicestelle bei der RTR, Rollenverteilung Hochrisiko-KI-Systeme.svg|links|mini|Übersicht über die Rollenverteilung und mögliche Rollenwechsel von Betreiber zu Anbieter bei Hochrisiko-KI-Systemen. © RTR (CC BY 4.0), https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/akteure.de.html.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Einstufung als Betreiber oder Anbieter ist dabei nicht statistisch, wie Art 25 AI Act zeigt. Dieser normiert Fälle, in denen Betreiber (und Händler, Einführung oder sonstige Dritte) als Anbieter eines Hochrisiko-KI-Systems gelten und damit auch den Anbieterpflichten (Art 16 AI Act) unterliegen.&lt;br /&gt;
&lt;br /&gt;
Ein solcher &amp;quot;Rollenwechsel&amp;quot; findet in folgenden Konstellationen statt (Art 25 Abs 1 AI Act): &lt;br /&gt;
&lt;br /&gt;
* wenn sie ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System &#039;&#039;&#039;mit ihrem Namen oder ihrer Handelsmarke versehen&#039;&#039;&#039;, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen&lt;br /&gt;
* wenn sie eine &#039;&#039;&#039;wesentliche Veränderung&#039;&#039;&#039; eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Art 6 AI Act bleibt&lt;br /&gt;
* wenn sie die &#039;&#039;&#039;Zweckbestimmung eines KI-Systems&#039;&#039;&#039;, das nicht als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so &#039;&#039;&#039;verändern&#039;&#039;&#039;, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Art 6 AI Act wird&lt;br /&gt;
&lt;br /&gt;
In diesen Szenarien gilt der ursprüngliche Anbieter nicht mehr als Anbieter dieses spezifischen KI-Systems (Art 25 Abs 2 AI Act). Der Erstanbieter hat dabei mit dem neuen Anbieter zusammenzuarbeiten, Informationen zur Verfügung zu stellen, für technischen Zugang und sonstige Unterstützung zu sorgen.&amp;lt;ref&amp;gt;Diese Pflicht zur Übergabe der Dokumentation gilt nicht, wenn der Anbieter festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Aufgrund von Art 25 AI muss beachtet werden, dass die Rollenverteilung im AI Act eine dynamische und nicht statische ist. So könnte zB ein Betreiber eines Large Language Models, der dieses zur Generierung von medizinischen Diagnosen verwendet, wenn diese Verwendung entgegen der Zweckbestimmung des (ursprünglichen) Anbieters ist, durch diese Verwendung zum neuen Anbieter werden und auch dessen Pflichten übernehmen. Auch ein Zusammentreffen der Rolle von Anbieter und Betreiber in einem Akteur ist möglich.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Transparenzpflichten (Art 50 AI Act) ===&lt;br /&gt;
Unabhängig von der Risikoeinstufung eines KI-Systems sieht Art 50 AI Act Transparenzpflichten für gewisse KI-Systeme vor. Die Informationen müssen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden.&lt;br /&gt;
&lt;br /&gt;
* Anbieter haben bei KI-Systemen, die für die direkte &#039;&#039;&#039;Interaktion mit natürlichen Personen&#039;&#039;&#039; bestimmt sind (zB Chatbots), sicherzustellen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.&amp;lt;ref&amp;gt;Eine solche Kennzeichnung ist nicht notwendig, wenn es aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass mit einem KI-System interagiert wird. Diese Pflicht gilt ebenfalls nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Anbieter von KI-Systemen die &#039;&#039;&#039;synthetische Audio-, Bild-, Video- oder Textinhalte&#039;&#039;&#039; erzeugen, müssen sicherstellen, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines &#039;&#039;&#039;Emotionserkennungssystems&#039;&#039;&#039; oder eines Systems zur &#039;&#039;&#039;biometrischen Kategorisierung&#039;&#039;&#039; müssen die davon betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten datenschutzkonform&amp;lt;ref&amp;gt;Dabei wird explizit auf die DSGVO, die VO (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG und die RL (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates verwiesen.&amp;lt;/ref&amp;gt; verarbeiten.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein &#039;&#039;&#039;Deepfake&#039;&#039;&#039; sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.&amp;lt;/ref&amp;gt; &lt;br /&gt;
* Betreiber eines KI-Systems, das &#039;&#039;&#039;Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren&#039;&#039;&#039;, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.&amp;lt;ref&amp;gt;Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== KI-Systeme mit minimalem Risiko ===&lt;br /&gt;
Für KI-Systeme, die sich nicht unter die aufgezählten Bestimmungen (verbotene Praktiken, Hochrisiko-KI-Systeme, Transparenzpflichten) einteilen lassen, teilweise als KI-Systeme mit minimalem Risiko bezeichnet, sieht der AI Act keine zusätzlichen Pflichten vor. Andere nationale oder unionsrechtliche Vorschriften wie die DSGVO können dennoch auf diese Systeme anwendbar sein. Auf freiwilliger Ebene ist jedoch auch bei Systemen, die kein hohes Risiko bergen, eine (teilweise) Unterwerfung unter den AI Act möglich. Dies soll durch die Aufstellung von sog &amp;quot;Verhaltenskodizes&amp;quot; gefördert werden (Art 95 AI Act).&lt;br /&gt;
&lt;br /&gt;
=== GPAI-Modelle (Art 51 ff AI Act) ===&lt;br /&gt;
&lt;br /&gt;
==== Differenzierung: GPAI-Modelle ohne/mit systemischem Risiko (Art 51-52 AI Act) ====&lt;br /&gt;
Wie bereits in Bezug auf den Anwendungsbereich erläutert muss zwischen KI-Systemen und KI-Modellen unterschieden werden. Ein KI-Modell ist dabei nur ein Baustein/Bestandteil eines KI-Systems, weitere Komponenten wie eine Nutzerschnittstelle sind erforderlich, damit ein Modell zu einem KI-System wird (ErwGr 97 AI Act). Bspw bietet ChatGPT eine Nutzerschnittstelle, um auf diverse dahinterstehende GPT-Modelle zurückzugreifen. Während KI-Systeme in den risikobasierten Ansatz fallen (verbotene Systeme, Hochrisiko-KI-Systeme, Transparenzpflichten), unterliegen nur gewisse Modelle, nämlich GPAI-Modelle (in früheren Fassungen foundation models/Basismodelle) einer Sonderregulierung (Art 51 ff AI Act). &lt;br /&gt;
&lt;br /&gt;
Dabei wird binär zwischen GPAI-Modelle ohne und GPAI-Modelle mit systemischem Risiko unterschieden. &lt;br /&gt;
&lt;br /&gt;
Ein solches &#039;&#039;&#039;systemisches Risiko&#039;&#039;&#039; liegt vor (Art 51 AI Act),&lt;br /&gt;
&lt;br /&gt;
* wenn das Modell über Fähigkeiten mit hohem Wirkungsgrad verfügt, die mithilfe geeigneter technischer Instrumente und Methoden, einschließlich Indikatoren und Benchmarks, bewertet werden. Dies wird angenommen, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen, gemessen in Gleitkommaoperationen (floating point operations [FLOPs]),&amp;lt;ref&amp;gt;Definiert als &amp;quot;jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird (Art 3 Z 67 AI Act). Grafisch dargestellt in &#039;&#039;RTR&#039;&#039;, FLOPs und der AI Act, https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/2024-07-19_FLOPs-AIA-DE.svg.&amp;lt;/ref&amp;gt; mehr als 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; beträgt. Dies dürfte zurzeit nur auf GPT-4 und potentiell Varianten von Gemini zutreffen. Liegen solche Fähigkeiten mit hohem Wirkungsgrad vor, hat der Anbieter die Kommission (unverzüglich) zu informieren (Art 52 AI Act).&lt;br /&gt;
* ein solches Risiko kann von Amts wegen/aufgrund einer Warnung von der Kommission in einer Entscheidung festgestellt werden (unter Einbeziehung der Kriterien in Anhang XIII bspw Anzahl der Parameter, Größe des Datensatzes, Multimodalität, etc) &lt;br /&gt;
&lt;br /&gt;
==== Pflichten für Anbieter von GPAI-Modellen (Art 53 AI Act) ====&lt;br /&gt;
Anbieter von GPAI-Modellen (ohne systemisches Risiko) müssen (Art 53 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine technische Dokumentation des Modells erstellen und aktualisieren (Mindestelemente in Anhang XI).&amp;lt;ref&amp;gt;Das heißt (soweit es anhand der Größe und des Risikoprofils des betreffenden Modells angemessen ist) erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; die Architektur und die Anzahl der Parameter; die Modalität [zum Beispiel Text, Bild] und das Format der Ein- und Ausgaben; die Lizenz) und zweitens eine &#039;&#039;&#039;ausführliche Beschreibung der Elemente des Modells&#039;&#039;&#039; und relevante Informationen zum Entwicklungsverfahren (bspw die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; die Entwurfsspezifikationen des Modells und des Trainingsverfahrens einschließlich Trainingsmethoden und -techniken, die wichtigsten Entwurfsentscheidungen mit den Gründen und getroffenen Annahmen; gegebenenfalls, was das Modell optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden [zum Beispiel Bereinigung, Filterung usw.], der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden, sowie alle anderen Maßnahmen zur Feststellung, ob Datenquellen ungeeignet sind, und Methoden zur Erkennung ermittelbarer Verzerrungen; die für das Trainieren des Modells verwendeten Rechenressourcen [zum Beispiel Anzahl der Gleitkommaoperationen], die Trainingszeit und andere relevante Einzelheiten im Zusammenhang mit dem Trainieren; bekannter oder geschätzter Energieverbrauch des Modells).&amp;lt;/ref&amp;gt; Diese muss auf Anfrage Behörden zur Verfügung gestellt werden. &lt;br /&gt;
* Informationen und die Dokumentation (Mindestelemente in Anhang XII)&amp;lt;ref&amp;gt;Das heißt erstens eine &#039;&#039;&#039;allgemeine Beschreibung des KI-Modells&#039;&#039;&#039; (bspw der Aufgaben, die das Modell erfüllen soll, sowie der Art und des Wesens der KI-Systeme, in die es integriert werden kann; die anwendbaren Regelungen der akzeptablen Nutzung; das Datum der Freigabe und die Vertriebsmethoden; gegebenenfalls wie das Modell mit Hardware oder Software interagiert, die nicht Teil des Modells selbst ist, oder wie es zu einer solchen Interaktion verwendet werden kann; gegebenenfalls die Versionen der einschlägigen Software im Zusammenhang mit der Verwendung des KI-Modells mit allgemeinem Verwendungszweck; die Architektur und die Anzahl der Parameter; die Modalität (zum Beispiel Text, Bild) und das Format der Ein- und Ausgaben; die Lizenz für das Modell) und zweitens eine &#039;&#039;&#039;Beschreibung der Bestandteile des Modells und seines Entwicklungsprozesses (bspw&#039;&#039;&#039; die technischen Mittel [zum Beispiel Betriebsanleitungen, Infrastruktur, Instrumente], die für die Integration des KI-Modells mit allgemeinem Verwendungszweck in KI-Systeme erforderlich sind; Modalität [zum Beispiel Text, Bild usw.] und Format der Ein- und Ausgaben und deren maximale Größe [zum Beispiel Länge des Kontextfensters usw.]; gegebenenfalls Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden.)&amp;lt;/ref&amp;gt; erstellen und aktualisieren und sie Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Diese Informationen und die Dokumentation müssen die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dem AI Act nachzukommen.&lt;br /&gt;
* eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte auch durch modernste Technologien, auf den Weg bringen&lt;br /&gt;
* eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen&lt;br /&gt;
&lt;br /&gt;
===== Pflichten für Anbieter von GPAI-Modellen mit systemischem Risiko (Art 55 AI Act) =====&lt;br /&gt;
Anbieter von GPAI-Modellen mit systemischem Risiko müssen (zusätzlich) (Art 55 AI Act):&lt;br /&gt;
&lt;br /&gt;
* eine Modellbewertung mit standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchführen (inklusive der Durchführung und Dokumentation von Angriffstests beim Modell gehören, um systemische Risiken zu ermitteln und zu mindern)&lt;br /&gt;
* mögliche systemische Risiken auf Unionsebene bewerten und mindern,&lt;br /&gt;
* einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen erfassen und dokumentieren und die Behörden darüber unterrichten&lt;br /&gt;
* ein angemessenes Maß an Cybersicherheit für die Modelle und die physische Infrastruktur des Modells gewährleisten.&lt;br /&gt;
&lt;br /&gt;
===== Praxisleitfäden (codes of practice) (Art 56 AI Act) =====&lt;br /&gt;
Die genannten Pflichten sollen dabei durch sog Praxisleitfäden auf Unionsebene konkretisiert werden, die unter Berücksichtigung internationaler Ansätze zur ordnungsgemäßen Anwendung dieser Verordnung beizutragen sollen (Art 56 Abs 1 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die Praxisleitfäden sollen mindestens die in Art 53-55 AI Act vorgesehenen Pflichten abdecken, darunter (Art 56 Abs 2 AI Act)&lt;br /&gt;
&lt;br /&gt;
* Mittel, mit denen sichergestellt wird, dass die in Art 53 Abs 1 lit a und b AI Act genannten Informationen (technische Dokumentation des Modells; Information und Dokumentation für die Integrierung des Modells) vor dem Hintergrund der Marktentwicklungen und technologischen Entwicklungen auf dem neuesten Stand gehalten werden&lt;br /&gt;
* die angemessene Detailgenauigkeit bei der Zusammenfassung der für das Training verwendeten Inhalte&lt;br /&gt;
* die Ermittlung von Art und Wesen der systemischen Risiken auf Unionsebene&lt;br /&gt;
* die Maßnahmen, Verfahren und Modalitäten für die Bewertung und das Management der systemischen Risiken auf Unionsebene&lt;br /&gt;
&lt;br /&gt;
Für die Ausarbeitung solcher Leitfäden können alle &#039;&#039;&#039;Anbieter&#039;&#039;&#039; von KI-Modellen mit allgemeinem Verwendungszweck sowie die einschlägigen zuständigen nationalen &#039;&#039;&#039;Behörden&#039;&#039;&#039; ersucht werden, sich an der Ausarbeitung von Praxisleitfäden zu beteiligen. Organisationen der &#039;&#039;&#039;Zivilgesellschaft&#039;&#039;&#039;, die Industrie, die &#039;&#039;&#039;Wissenschaft&#039;&#039;&#039; und andere einschlägige &#039;&#039;&#039;Interessenträger&#039;&#039;&#039; wie nachgelagerte Anbieter und unabhängige Sachverständige können den Prozess ebenfalls unterstützen (Art 65 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein erster Entwurf eines solchen Leitfadens, ausgearbeitet von internationalen Expert*innen, wurde im November 2024 von der Europäischen Kommission präsentiert.&amp;lt;ref&amp;gt;&#039;&#039;European Commission&#039;&#039;, First Draft of the General-Purpose AI Code of Practice published, written by independent experts, https://digital-strategy.ec.europa.eu/en/library/first-draft-general-purpose-ai-code-practice-published-written-independent-experts (Stand 14. 11. 2024).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Befugnisse für die &#039;&#039;&#039;Aufsicht, Ermittlung, Durchsetzung und Überwachung&#039;&#039;&#039; in Bezug auf Anbieter von GPAI-Modellen werden (ausschließlich) der Kommission zugewiesen und in den Art 88-94 AI Act abweichend geregelt. &lt;br /&gt;
&lt;br /&gt;
== Durchsetzung/Rechtsbehelfe (Art 85-87 AI Act) ==&lt;br /&gt;
Der AI Act normiert nur wenige Rechtsbehelfe für Betroffene. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|In Bezug auf mögliche Rechtsbehelfe muss der AI Act, der diesbezüglich nur eingeschränkte Möglichkeiten bereithält, im Zusammenhang mit der AILD und PLD gesehen werden.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Beschwerde bei der Marktüberwachungsbehörde (Art 85 AI Act) ===&lt;br /&gt;
Zunächst kann jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen die Bestimmungen des AI Act verstoßen wurde, unbeschadet anderer Rechtsbehelfe, bei der betreffenden Marktüberwachungsbehörde Beschwerden einreichen. Diese Beschwerden werden für die Zwecke der Durchführung von Marktüberwachungstätigkeiten berücksichtigt.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung der Entscheidungsfindung im Einzelfall (Art 86 AI Act) ===&lt;br /&gt;
Zweitens haben Personen, &lt;br /&gt;
&lt;br /&gt;
* die von einer Entscheidung betroffen sind, &lt;br /&gt;
* die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI-Systems getroffen hat (somit nur eigenständige Hochrisiko-KI-Systeme;&amp;lt;ref&amp;gt;Eine Ausnahme besteht für Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur.&amp;lt;/ref&amp;gt; eingebettete Hochrisiko-KI-Systeme wie Medizinprodukte sind nicht erfasst) &lt;br /&gt;
* und die rechtliche Auswirkungen hat oder &lt;br /&gt;
* sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, &lt;br /&gt;
&lt;br /&gt;
das Recht, vom Betreiber eine klare und aussagekräftige &#039;&#039;&#039;Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess&#039;&#039;&#039; und zu den &#039;&#039;&#039;wichtigsten Elementen der getroffenen Entscheidung&#039;&#039;&#039; zu erhalten (Art 86 Abs 1 AI Act).&amp;lt;ref&amp;gt;MwN &#039;&#039;Müller/Scheichenbauer/Schneeberger&#039;&#039;, Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse. Querverbindungen von Art 15 Abs 1 lit h iVm Art 22 DSGVO und Art 86 AI Act in der Praxis, in &#039;&#039;Jahnel&#039;&#039; (Hrsg), Jahrbuch Datenschutzrecht 2024 (2025) 157.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es handelt sich somit um ein Recht, das Betroffenen gegenüber Betreibern und nicht Anbietern zusteht. Anbieter wiederum haben Betreibern entsprechende Betriebsanleitungen bereitzustellen (Art 13 AI Act).&lt;br /&gt;
&lt;br /&gt;
Dies gilt nur insoweit, als dieses Recht nicht anderweitig im Unionsrecht festgelegt ist (Art 86 Abs 3 AI Act). In Hinblick auf diese Subsidiarität ist insbesondere an das Auskunftsrecht nach Art 15 DSGVO (iVm Art 22 DSGVO) zu denken.&lt;br /&gt;
&lt;br /&gt;
=== Meldung von Verstößen und Schutz von Hinweisgebern (Art 87 AI Act) ===&lt;br /&gt;
Zusätzlich normiert Art 87 AI Act, dass für die Meldung von Verstößen und den Schutz von Personen, die solche Verstöße melden, die Richtlinie zum Schutz von Whistleblowern gilt.&amp;lt;ref&amp;gt;RL (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden, ABl L 2019/305, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bedeutung von Normen und Standards (Art 40-42 AI Act) ==&lt;br /&gt;
Die Kommission hat die Entwicklung von &#039;&#039;&#039;harmonisierten Normen&#039;&#039;&#039;, die derzeit nicht existieren beauftragt.&amp;lt;ref&amp;gt;Commission Implementing Decision on a standardisation request to the European Committee for Standardisation and the European Committee for Electrotechnical Standardisation in support of Union policy on artificial intelligence, C(2023)3215, https://ec.europa.eu/transparency/documents-register/detail?ref=C(2023)3215&amp;amp;lang=en.&amp;lt;/ref&amp;gt; Solche Normen werden im Amtsblatt der EU veröffentlicht. &lt;br /&gt;
&lt;br /&gt;
Stimmen Hochrisiko-KI-Systeme oder GPAI-Modelle mit solchen harmonisierten Normen überein, wird eine Konformität mit den Anforderungen an Hochrisiko-KI-Systeme (Art 8 ff AI Act) oder gegebenenfalls mit den Pflichten für die Anbieter von GPAI-Modellen (Art 53 ff AI Act) vermutet (&#039;&#039;&#039;Konformitätsvermutung&#039;&#039;&#039;), soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind (Art 40 AI Act). Diesen harmonisierten Normen kommt somit eine hohe Bedeutung zu, für Rechtssicherheit zu sorgen und die abstrakten Anforderungen des AI Act zu konkretisieren.&amp;lt;ref&amp;gt;MwN &#039;&#039;Ebers&#039;&#039;, Standardisierung Künstlicher Intelligenz und KI-Verordnungsvorschlag, RDi 2021, 588.&amp;lt;/ref&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis:&lt;br /&gt;
|-&lt;br /&gt;
|Derartige harmonisierte Normen befinden sich derzeit in Entwicklung und wurden noch nicht veröffentlicht (siehe unterhalb).&lt;br /&gt;
|}&lt;br /&gt;
Subsidiär kann die Kommission, wenn strenge Bedingungen erfüllt sind (harmonisierte Normen wurden nicht ausgearbeitet oder entsprechen nicht dem Auftrag), Durchführungsrechtsakte zur Festlegung &#039;&#039;&#039;gemeinsamer Spezifikationen&#039;&#039;&#039; erlassen, mit denen ebenfalls eine solche Konformitätsvermutung einhergeht (Art 41 AI Act).&lt;br /&gt;
&lt;br /&gt;
Ein Kurzüberblick über die Bedeutung von harmonisierten Normen und in Entwicklung befindliche Normen wurde vom Joint Research Centre der Kommission publiziert.&amp;lt;ref&amp;gt;&#039;&#039;Soler Garrido/de Nigris/Bassani/Sanchez/Evas/André/Boulangé&#039;&#039;, Harmonised Standards for the European AI Act (2024), https://publications.jrc.ec.europa.eu/repository/handle/JRC139430.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weitere Konformitätsvermutungen werden in Art 42 AI Act in Bezug auf die Daten-Governance (Art 10 AI Act) und die Cybersicherheit (Art 15 AI Act) für Hochrisiko-KI-Systeme normiert, die mit entsprechenden Daten trainiert und getestet wurden bzw die Cybersicherheitszertifizierungen durchlaufen sind, normiert.&lt;br /&gt;
&lt;br /&gt;
= Synergien =&lt;br /&gt;
&lt;br /&gt;
=== Folgenabschätzungen: Datenschutz- und Grundrechte-Folgenabschätzung ===&lt;br /&gt;
* Der Anwendungsbereich einer Datenschutz-Folgenabschätzung (Art 35 DSGVO) kann sich mit einer Grundrechte-Folgenabschätzung (Art 27 AI Act) überschneiden, wobei eine integrierte Folgenabschätzung durchgeführt werden kann.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 23 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== Verarbeitung von sensiblen Kategorien personenbezogener Daten (Art 9 DSGVO) ===&lt;br /&gt;
* Um Verzerrungen (Bias) zu zu erkennen und zu korrigieren dürfen Anbieter, wenn es unbedingt erforderlich, unter strengen Auflagen sensible Kategorien von personenbezogenen Daten (Art 9 DSGVO) verarbeiten (Art 10 Abs 5 AI Act).&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Bei der Entwicklung/Training leistungsfähigerer KI-Modelle kann es zu Friktionen zwischen Art 15 AI Act, der angemessene Genauigkeit iSv Performanz fordert, und Art 9 DSGVO, der die Verarbeitung sensibler personenbezogener Daten prinzipiell verbietet, kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 25 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt; Zwar gab der Europäische Datenschutzausschuss Ende 2024 eine Stellungnahme zum Training von KI-Modellen heraus, diese behandelt die potentielle Friktion mit Art 9 DSGVO jedoch nur am Rande.&amp;lt;ref&amp;gt;&#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Unterschiedliche Verantwortlichkeiten ===&lt;br /&gt;
&lt;br /&gt;
* Da die DSGVO primär auf den Verantwortlichen abstellt, diese Rolle wird häufig der Betreiber iSd AI Act einnehmen, die meisten Pflichten nach dem AI Act aber primär an Anbieter adressiert sind, kann es zu einem Auseinanderfallen der Verantwortlichkeiten kommen.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 24, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Risikoanalyse: DSA vs AI Act ===&lt;br /&gt;
* Bei VLOPs und VLOSEs, die generative KI, bspw GPAI-Modelle, integrieren, kann es zu einer Überschneidung zwischen [[Digital Services Act (DSA)|DSA]] und AI Act, bspw in Bezug auf die nach DSA und AI Act notwendige Risikoanalyse kommen. Daher wird teilweise für eine konsolidierte und technologieübergreifende Risikoanalyse plädiert, wobei dem Umstand, dass mehrere Technologien verknüpft sind, entsprechend Rechnung getragen werden muss.&amp;lt;ref&amp;gt;&#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024) 19 f, https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Überlappende Anforderungen mit anderem Produktsicherheitsrecht ===&lt;br /&gt;
&lt;br /&gt;
* Art 8 Abs 2 AI Act betont für Produkte, die bereits untere andere Produktsicherheitsvorschriften fallen (Anhang I Abschnitt A), &amp;quot;im Hinblick auf die Gewährleistung der Kohärenz, der Vermeidung von Doppelarbeit und der Minimierung zusätzlicher Belastungen&amp;quot; die Anbieter die Wahl haben, die erforderlichen Test- und Berichterstattungsverfahren, Informationen und Dokumentationen gegebenenfalls in existierende Dokumentationen und Verfahren zu integrieren.&lt;br /&gt;
&lt;br /&gt;
=== Integriertes/kombiniertes Risikomangement ===&lt;br /&gt;
&lt;br /&gt;
* Anbieter von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in Art 9 AI Act enthaltenen Aspekte als Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren integrieren bzw die Verfahren kombinieren (Art 9 Abs 10 AI Act).  &lt;br /&gt;
&lt;br /&gt;
=== Cybersicherheitsanforderungen ===&lt;br /&gt;
&lt;br /&gt;
* Art 15 Abs 1 AI Act normiert, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden müssen, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Neben den in Art 15 Abs 5 AI Act konkretisierten speziellen Maßnahmen an die Cybersicherheit von KI-Systemen bleiben auch andere Anforderungen, bspw nach [[Network and Information Security Directive (NIS II-RL)|NIS2-RL]] anwendbar.&lt;br /&gt;
&lt;br /&gt;
=== Recht auf Erläuterung ===&lt;br /&gt;
&lt;br /&gt;
* In Bezug auf das in Art 86 AI Act normierte Recht auf Erläuterung besteht potentiell eine Subsidiarität gegenüber der Auskunftspflicht nach Art 15 DSGVO iVm Art 22 DSGVO zur automatisierten Entscheidungsfindung, das für vollautomatisierte Entscheidungsfindung ein Recht auf Zugang zu besonderen Informationen wie der involvierten Logik gewährt.&lt;br /&gt;
&lt;br /&gt;
=== AILD ===&lt;br /&gt;
&lt;br /&gt;
* Insbesondere die AILD, aber auch eingeschränkter die PHRL neu, nimmt direkt auf den AI Act Bezug und verweist bei der Begriffsverwendung häufig auf diesen. Somit kann die AILD nicht ohne den Kontext des AI Act verstanden werden. So bilden die Pflichten in Bezug auf Hochrisiko-KI-Systeme (Art 8-15 AI Act) wichtige Sorgfaltspflichten in der AILD ([[KI-Haftungsregelungen#AI Act und AILD|siehe ausführlicher im Rahmen der Haftungsregeln]]).&lt;br /&gt;
&lt;br /&gt;
= Sanktionen/sonstige Konsequenzen =&lt;br /&gt;
&lt;br /&gt;
=== Sanktionen (Art 99 AI Act) ===&lt;br /&gt;
Art 99 Abs 1 AI Act übertragt die Festsetzung von Sanktionen primär den MS und normiert nur grobe &#039;&#039;&#039;Richtlinien&#039;&#039;&#039; dafür. Die Kommission hat jedoch Leitlinien (Art 96 AI Act) zu veröffentlichen, die zu berücksichtigen sind. &lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Hinweis&lt;br /&gt;
|-&lt;br /&gt;
|Zum derzeitigen Stand gibt es noch &amp;lt;u&amp;gt;kein&amp;lt;/u&amp;gt; nationales Durchführungsgesetz, das die Sanktionen konkretisiert.&lt;br /&gt;
|}&lt;br /&gt;
Somit sind nach dieser Bestimmung Vorschriften für Sanktionen und andere Durchsetzungsmaßnahmen, zu denen auch Verwarnungen und nicht monetäre Maßnahmen gehören können, von den MS zu erlassen. MS müssen alle Maßnahmen ergreifen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. &lt;br /&gt;
&lt;br /&gt;
Die vorgesehenen Sanktionen müssen &#039;&#039;&#039;wirksam, verhältnismäßig&#039;&#039;&#039; und &#039;&#039;&#039;abschreckend&#039;&#039;&#039; sein und die &#039;&#039;&#039;Interessen von KMU&#039;&#039;&#039; sowie deren wirtschaftliches Überleben berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Jeder MS erlässt auch Vorschriften darüber, in welchem Umfang &#039;&#039;&#039;gegen Behörden und öffentliche Stellen&#039;&#039;&#039; im MS Geldbußen verhängt werden können (Art 99 Abs 8 AI Act).&lt;br /&gt;
&lt;br /&gt;
Die höchsten Geldstrafen drohen für eine Verletzung gegen die verbotenen Praktiken (Art 5 AI Act). Bei Missachtung des Verbots werden &#039;&#039;&#039;Geldbußen von bis zu 35 000 000&#039;&#039;&#039; Euro oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;7% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
Für Verstöße gegen andere Bestimmungen werden &#039;&#039;&#039;Geldbußen von bis zu 15 000 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;3 % des gesamten weltweiten Jahresumsatze&#039;&#039;&#039;s des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 4 AI Act):&lt;br /&gt;
&lt;br /&gt;
* Verstöße gegen Pflichten der Anbieter (Art 16 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Bevollmächtigten (Art 22 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Einführer (Art 23 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Händler (Art 24 AI Act)&lt;br /&gt;
* Verstöße gegen Pflichten der Betreiber (Art 26 AI Act)&lt;br /&gt;
* Verstöße gegen für notifizierte Stellen geltende Anforderungen und Pflichten (Art 31, Art 33 Abs 1, 3, 4, Art 34 AI Act)&lt;br /&gt;
* Verstöße gegen Transparenzpflichten für Anbieter und Betreiber (Art 50)&lt;br /&gt;
Für die Bereitstellung von &#039;&#039;&#039;falschen, unvollständigen&#039;&#039;&#039; oder &#039;&#039;&#039;irreführenden Informationen&#039;&#039;&#039; an notifizierte Stellen oder zuständige nationalen Behörden werden &#039;&#039;&#039;Geldbußen von bis zu 7 500 000 Euro&#039;&#039;&#039; oder — im Falle von Unternehmen — von bis zu &#039;&#039;&#039;1% des gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art 99 Abs 5 AI Act).&lt;br /&gt;
&lt;br /&gt;
Um nicht die Wirtschaft zugunsten von größeren Unternehmen zu verzerren sieht Art 99 Abs 6 AI Act &#039;&#039;&#039;Sondervorschriften für KMUs&#039;&#039;&#039; vor. Diesbezüglich gilt für jede genannte Geldbuße der jeweils niedrigere Betrag aus den genannten Prozentsätzen oder Summen. &lt;br /&gt;
&lt;br /&gt;
Art 99 Abs 7 AI Act präzisiert, welche &#039;&#039;&#039;Kriterien&#039;&#039;&#039; bei der Entscheidung, ob eine Geldbuße verhängt wird, und bei der Festsetzung der Höhe der Geldbuße zu berücksichtigen sind.&amp;lt;ref&amp;gt;In jedem Einzelfall sind alle relevanten Umstände der konkreten Situation zu berücksichtigen. Darüber hinaus sind bspw die Art, Schwere und Dauer des Verstoßes und seiner Folgen; Größe, Jahresumsatz und Marktanteil des Akteurs; jegliche anderen erschwerenden oder mildernden Umstände etc.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union (Art 100 AI Act) ===&lt;br /&gt;
Parallel dazu gibt Art 100 AI Act Kriterien für die Verhängung von &#039;&#039;&#039;Geldbußen gegen Organe, Einrichtungen und sonstige Stellen der Union&#039;&#039;&#039; durch den Europäischen Datenschutzbeauftragen vor.&lt;br /&gt;
&lt;br /&gt;
Diesbezüglich drohen bei Missachtung der Verbotenen Praktiken (Art 5 AI Act) Geldbußen von bis zu 1 500 000 EUR und bei bei Nichtkonformität des KI-Systems anderen Anforderungen oder Pflichten Geldbußen von bis zu 750 000 EUR (Art 100 Abs 2, 3 AI Act).   &lt;br /&gt;
&lt;br /&gt;
=== Geldbußen für Anbieter GPAI-Modellen (Art 101 AI Act) ===&lt;br /&gt;
Art 101 AI Act wiederum normiert Sonderbestimmungen für Geldbußen für Anbieter von [[Artificial Intelligence Act (AIA)#GPAI-Modelle (Art 51 ff AI Act)|GPAI-Modellen]], die sich somit nur an einen eingeschränkteren Personen- bzw Unternehmenskreis richten als die &amp;quot;allgemeinen&amp;quot; Sanktionsbestimmungen des Art 99 AI Act.   &lt;br /&gt;
&lt;br /&gt;
Diesbezüglich liegt die Zuständigkeit, anders als bei den allgemeinen Sanktionen, bei der Europäischen Kommission. Diese kann gegen Anbieter von GPAI-Modellen &#039;&#039;&#039;Geldbußen von bis zu 3% ihres gesamten weltweiten Jahresumsatzes&#039;&#039;&#039; im vorangegangenen Geschäftsjahr oder &#039;&#039;&#039;15 000 000 Euro&#039;&#039;&#039; verhängen, je nachdem, welcher Betrag höher ist.   &lt;br /&gt;
&lt;br /&gt;
Dazu muss sie feststellen, dass der Anbieter vorsätzlich oder fahrlässig   &lt;br /&gt;
&lt;br /&gt;
* gegen die einschlägigen Bestimmungen des AI Act verstoßen hat (diese Blankettstrafnorm erfasst somit undefiniert alle relevanten Bestimmungen für GPAI-Modelle)&lt;br /&gt;
* der Anforderung eines Dokuments oder von Informationen durch die Kommission (Art 91 AI Act) nicht nachgekommen ist oder falsche, unvollständige oder irreführende Informationen bereitgestellt hat&lt;br /&gt;
* einer geforderten Maßnahme nicht nachgekommen ist (Art 93 AI Act, bspw Maßnahmen, um die Verpflichtungen gem Art 53, 54 AI Act einzuhalten oder Risikominderungsmaßnahmen)&lt;br /&gt;
* der Kommission keinen Zugang zu dem GPAI-Modell oder dem GPAI-Modell  mit systemischem Risiko gewährt hat, um eine Bewertung durchführen (Art 92 AI Act, bspw um die Einhaltung der Pflichten aus dieser Verordnung durch den Anbieter zu beurteilen oder systemische Risiken auf Unionsebene zu ermitteln)&lt;br /&gt;
Bei der Festsetzung der Höhe der Geldbuße oder des Zwangsgelds muss der &#039;&#039;&#039;Art, der Schwere und der Dauer des Verstoßes&#039;&#039;&#039; sowie den Grundsätzen der Verhältnismäßigkeit und der Angemessenheit gebührend Rechnung getragen werden. &lt;br /&gt;
&lt;br /&gt;
Geldbußen müssen wiederum wirksam, verhältnismäßig und abschreckend sein (Art 101 Abs 3 AI Act).&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 1: KI-gestütztes Kreditscoring ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.&lt;br /&gt;
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 1: KI-gestütztes Kreditscoring|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.&lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Variante:&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Für die Nutzerin als Betreiberin liegt vermutlich die &amp;quot;Haushaltsausnahme&amp;quot; vor, wodurch der AI Act nicht zur Anwendung kommt (Art 2 Abs 10 AI Act).&lt;br /&gt;
Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich iSv Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Art 6 Abs 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;für die direkte Interaktion mit natürlichen Personen bestimmt&amp;quot; ist.&lt;br /&gt;
|-&lt;br /&gt;
!EInordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ===&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.&lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Art 6 Abs 1 AI Act.&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Art 10 AI Act verletzt.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Art 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AILD/PLD&lt;br /&gt;
|[[KI-Haftungsregelungen#Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung|Siehe die Analyse im Rahmen der KI-Haftungsregelungen.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Weiterführende Literatur =&lt;br /&gt;
&lt;br /&gt;
== Einführungsbücher == &lt;br /&gt;
* &#039;&#039;Hense/Mustac&#039;&#039;, AI Act kompakt. Compliance Management- &amp;amp; Use Cases in der Unternehmenspraxis (2024)&lt;br /&gt;
* &#039;&#039;Hilgendorf/Roth-Isigkeit&#039;&#039; (Hrsg), Die neue Verordnung der EU zur Künstlichen Intelligenz (2023)&lt;br /&gt;
* &#039;&#039;Ulbricht/Brajovic/Duhme&#039;&#039;, Praxishandbuch KI und Recht (2024, iE)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039; (Hrsg), KI-Verordnung. Leitfaden für die Praxis² (2024)&lt;br /&gt;
* &#039;&#039;Voigt/Hullen&#039;&#039;, Handbuch KI-Verordnung. FAQ zum EU AI Act (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Das neue Recht der Künstlichen Intelligenz. Artificial Intelligence Act (AI Act) (2024)&lt;br /&gt;
* &#039;&#039;Windholz&#039;&#039;, Praxishandbuch KI-VO (2024, iE)&lt;br /&gt;
&lt;br /&gt;
== Kommentare ==&lt;br /&gt;
* &#039;&#039;Bomhard/Pieper/Wende&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024, iE)&lt;br /&gt;
* &#039;&#039;Ebers/Zou&#039;&#039;, Artificial Intelligence Act. A Commentary (2024, iE) &lt;br /&gt;
* &#039;&#039;Feiler/​Forgó&#039;&#039;, KI-VO. EU-Verordnung über Künstliche Intelligenz (2024)&lt;br /&gt;
* &#039;&#039;Heinze/Steinrötter/Zerdick&#039;&#039;, KI-Verordnung. Gesetz über künstliche Intelligenz (2025)&lt;br /&gt;
* &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2024)&lt;br /&gt;
* &#039;&#039;Pehlivan/Forgó/Valcke&#039;&#039;, The EU Artificial Intelligence (AI) Act. A Commentary (2024)&lt;br /&gt;
* &#039;&#039;Reusch/Chibanguza&#039;&#039;, KI-VO. Künstliche Intelligenz-Verordnung (2025, iE)&lt;br /&gt;
* &#039;&#039;Schwartmann/Keber/Zenner&#039;&#039;, KI-VO (2024)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Article-by-Article Commentary (2024, iE)&lt;br /&gt;
* &#039;&#039;Wendt/Wendt&#039;&#039;, Artificial Intelligence Act. Gesetz über Künstliche Intelligenz (2024, iE)&lt;br /&gt;
* &#039;&#039;Zankl&#039;&#039;, KI-Verordnung. Verordnung über künstliche Intelligenz (Artificial Intelligence Act) (2025)&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Materialien/Links ==&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Get Started Guide. AI Act (Stand April 2024), https://www.bitkom.org/sites/main/files/2024-04/bitkom-get-started-guide-ai-act.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Compliance in der Praxis – Schritt für Schritt (Version 1.0 - Stand 29.10.2024), https://www.bitkom.org/sites/main/files/2024-10/241028-bitkom-umsetzungsleitfaden-ki.pdf&lt;br /&gt;
* &#039;&#039;BITKOM&#039;&#039;, Umsetzungsleitfaden zur KI-Verordnung. Click-Through-Tool, https://www.bitkom.org/Klick-Tool-Umsetzungsleitfaden-KI-Verordnung&lt;br /&gt;
* &#039;&#039;CNIL&#039;&#039;, Self-assessment guide for artificial intelligence (AI) systems, https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems&lt;br /&gt;
* &#039;&#039;EDPB&#039;&#039;, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (2024), https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en&lt;br /&gt;
* &#039;&#039;European Parliament&#039;&#039;, Legislative train: the AI Act, https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, AI Act Explorer, https://artificialintelligenceact.eu/ai-act-explorer/&lt;br /&gt;
* &#039;&#039;Future of Life Institute (FLI)&#039;&#039;, EU AI Act Compliance Checker, https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/&lt;br /&gt;
* &#039;&#039;Gesellschaft für Datenschutz und Datensicherheit (GDD)&#039;&#039;, GDD-Praxishilfe Europäische Datenstrategie: KI-VO, Data Act etc. - Adressaten und Regelungsschwerpunkte der neuen Digitalakte (Stand Juli 2024), https://www.gdd.de/wp-content/uploads/2024/07/GDD-Praxishilfe-Europaeische-Datenstrategie-KI-VO-Data-Act-etc-1.pdf&lt;br /&gt;
* &#039;&#039;Hacker&#039;&#039;, Der AI Act im Spannungsfeld von digitaler und sektoraler Regulierung (2024), https://www.bertelsmann-stiftung.de/en/publications/publication/did/der-ai-act-im-spannungsfeld-von-digitaler-und-sektoraler-regulierung.&lt;br /&gt;
* &#039;&#039;Österreichische Datenschutzbehörde&#039;&#039;, FAQ zum Thema KI und Datenschutz (Stand: 2. Juli 2024), https://www.dsb.gv.at/download-links/FAQ-zum-Thema-KI-und-Datenschutz.html&lt;br /&gt;
* &#039;&#039;Plattform Lernende Systeme&#039;&#039;, AI Act der Europäischen Union. Regeln für vertrauenswürdige KI (Juni 2024), https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf&lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, KI-Guidelines für KMU. Empfehlungen zum positiven Umgang mit künstlicher Intelligenz (Stand 11.03.2024), https://www.wko.at/digitalisierung/ki-guidelines-fuer-kmu&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=KI-Haftungsregelungen&amp;diff=3992</id>
		<title>KI-Haftungsregelungen</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=KI-Haftungsregelungen&amp;diff=3992"/>
		<updated>2025-09-04T07:26:12Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Allgemeines und Übergangsbestimmungen */ Typokorrektur&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Richtlinie|Jahr=2025|Nummer=|Vertrag=EU|EWR=ja|Titel=Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz|Kurztitel=AI Liability Directive/Richtlinie über KI-Haftung|Bezeichnung=AILD|Rechtsmaterie=Binnenmarkt, Cybersicherheit|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=Noch nicht im ABl veröffentlicht|Anzuwenden=Vorschlagsstadium|Gültig=vorschlagimprozess|GrundfassungManuell=https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX%3A52022PC0496}}&lt;br /&gt;
&lt;br /&gt;
{{Infobox Rechtsakt (EU)|Typ=Richtlinie|Jahr=2024|Nummer=2853|Vertrag=EU|EWR=ja|Titel=Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates|Kurztitel=Product Liability Directive/Produkthaftungsrichtlinie (neu)|Bezeichnung=PLD/PHRL|Rechtsmaterie=Binnenmarkt, Cybersicherheit|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/2853, 1|Anzuwenden=9. Dezember 2026 (Umsetzung)|Gültig=umsetzung}}&lt;br /&gt;
&lt;br /&gt;
== Überblick ==&lt;br /&gt;
Im Bereich der Regulierung künstlicher Intelligenz durch die EU wurden neben dem AI Act von der Kommission auch Vorschläge für spezifische Haftungsregelungen in diesem Zusammenhang vorgelegt. Dies beinhaltete zum einen den Vorschlag für eine neue &#039;&#039;&#039;Produkthaftungsrichtlinie&#039;&#039;&#039;, welcher zwar auch andere Hintergründe hatte, aber durch einige Aspekte insbesondere auch auf &#039;&#039;&#039;künstliche Intelligenz (KI)&#039;&#039;&#039; abzielte, und zum anderen einen Vorschlag für eine eigene &#039;&#039;&#039;&#039;&#039;AI Liability Directive&#039;&#039; (AILD)&#039;&#039;&#039;.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2, 3 und 13; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1 und folgende, Erwägungsgrund 3.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Während die neue Produkthaftungsrichtlinie wiederum im Wesentlichen auf harmonisierte Regelungen für eine verschuldensunabhängige&amp;lt;ref&amp;gt;Vgl kritisch etwa: &#039;&#039;European Parliamentary Research Service&#039;&#039;, Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment, PE 762.861, September 2024, Seite 27 mit weiteren Nachweisen.&amp;lt;/ref&amp;gt; (zivilrechtliche) Haftung abzielen sollte, adressierte der Vorschlag für die AILD insbesondere Beweiserleichterungen im Rahmen der (prinzipiell dennoch weiterhin) aus nationalen bzw sonstigen unionsrechtlichen Regelungen ableitbaren außervertraglichen, verschuldensabhängigen, zivilrechtlichen Haftung.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1 und 14, Erwägungsgrund 2; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 3, 12 und 13, Erwägungsgründe 9, 10, 23 und 24, Artikel 1.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Durch diese Regelungen der AILD sollte vorrangig (Beweis-)Problematiken entgegengetreten werden, die mit gewissen Eigenschaften von KI in Verbindung gebracht wurden, wie deren Komplexität und Undurchsichtigkeit (die wiederum insgesamt als &#039;&#039;&#039;&#039;&#039;Blackbox-Effekt&#039;&#039;&#039;&#039;&#039; bezeichnet werden). Angesprochen wurden dabei insbesondere Nachweise für die Aspekte &#039;&#039;Kausalität&#039;&#039; und in gewisser Hinsicht auch &#039;&#039;Verschulden.&#039;&#039;&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 1, 2, 13, 15, 16, Erwägungsgründe 22 und 28, Artikel 3(5).&amp;lt;/ref&amp;gt; Den Erläuterungen in der Begründung des Vorschlags zufolge wurden in dem Zusammenhang verschiedene Optionen abgewogen und insbesondere die Statuierung einer eigenen (verschuldensunabhängigen) Haftung für KI vorerst verworfen, was allerdings demnach nach einer gewissen Zeit noch einmal evaluiert werden sollte (siehe im Detail Artikel 5 Vorschlag AILD).&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 5 und folgende, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Rahmen der neuen Produkthaftungsrichtlinie sollte nach umfassenden Unklarheiten und potenziellen Regelungslücken&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Vgl etwa Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seite 1; &#039;&#039;European Parliamentary Research Service&#039;&#039;, Artificial intelligence liability directive, PE 739.342, February 2023, Seite 3; für Österreich etwa: &#039;&#039;Larcher&#039;&#039;, Medizinprodukte-Software: Abgrenzung und Produkthaftung, rdm 2018/100, 130 (Seiten 133, 134); für Deutschland etwa: &#039;&#039;Dötsch&#039;&#039;, Außervertragliche Haftung für Künstliche Intelligenz am Beispiel von autonomen Systemen (2023), insbesondere Seiten 276 und folgende; &#039;&#039;Joggerst/Wendt&#039;&#039;, Die Weiterentwicklung der Produkthaftungsrichtlinie, InTeR 2021, 13.&amp;lt;/ref&amp;gt; in diesem Zusammenhang nunmehr Software (und damit auch KI) explizit in den Produktbegriff aufgenommen werden. Darüber hinaus zielen auch gewisse Aspekte der neuen Produkthaftungsregelungen mehr oder weniger spezifisch auf KI bzw deren Besonderheiten ab.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 6, Erwägungsgrund 12.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Beide Vorschläge zielten auf Richtlinien ab, was insbesondere bedeutet, dass diese prinzipiell zunächst durch die Mitgliedstaaten in nationales Recht umgesetzt werden müssten, um Geltung zu erlangen. Allerdings sind die jeweiligen Gesetzgebungsverfahren sehr unterschiedlich verlaufen. Die neue Produkthaftungsrichtlinie ist mittlerweile im Amtsblatt der EU veröffentlicht worden&amp;lt;ref&amp;gt;Siehe: Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024.&amp;lt;/ref&amp;gt; und prinzipiell in Kraft getreten, während das Gesetzgebungsverfahren für die AILD offenbar aufgeschoben wurde und zwischenzeitlich diverse Änderungen des Vorschlags diskutiert wurden. Stand Mitte Februar 2025 hat die Kommission den Vorschlag für die AILD offenbar verworfen. Siehe im Detail jeweils unter &#039;&#039;&#039;[[KI-Haftungsregelungen#Vorschlag für AI Liability Directive|Vorschlag für AI Liability Directive]]&#039;&#039;&#039; bzw &#039;&#039;&#039;[[KI-Haftungsregelungen#Produkhaftungsrichtlinie neu|Produkthaftungsrichtlinie neu]].&#039;&#039;&#039;&lt;br /&gt;
----&lt;br /&gt;
&lt;br /&gt;
== Vorschlag für AI Liability Directive ==&lt;br /&gt;
&lt;br /&gt;
=== Allgemeines und Anwendungsbereich ===&lt;br /&gt;
Der Vorschlag für eine &#039;&#039;&#039;AI Liability Directive&#039;&#039;&#039; (im Folgenden insbesondere: Vorschlag AILD) wurde 2022 von der Kommission vorgelegt.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final; siehe zum Verfahren auch etwa https://eur-lex.europa.eu/legal-content/EN/HIS/?uri=CELEX%3A52022PC0496 (abgerufen am 18. 2. 2025).&amp;lt;/ref&amp;gt; In der Folge wurde berichtet, dass der Gesetzgebungsprozess zwischenzeitlich aufgeschoben wurde, insbesondere um zunächst die gesetzgeberische Fertigstellung des AI Acts abzuwarten und dass von der Kommission nicht öffentlich ein überarbeiteter Vorschlag ausgesendet wurde, der insbesondere an den inzwischen veröffentlichten AI Act, aber zumindest mitunter auch in Bezug auf seine konkreten Regelungen, angepasst worden sein soll.&amp;lt;ref&amp;gt;Vgl Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive (abgerufen am 26. 11. 2024); &#039;&#039;Tom Whittaker&#039;&#039;, EU AI Liability Directive: An Update, in: Burges Salmon blog, https://blog.burges-salmon.com/post/102jfdv/eu-ai-liability-directive-an-update&amp;lt;nowiki/&amp;gt;(abgerufen am 26. 11. 2024).&amp;lt;/ref&amp;gt; Im September 2024 wurde zudem eine Studie des European Parliamentary Research Service (EPRS) publiziert, im Rahmen welcher insbesondere eine gemischte (verschuldensab- und unabhängige) Haftung diskutiert wird sowie die Ausweitung des Anwendungsbereichs der Richtlinie (etwa auf Software generell) vorgeschlagen wird.&amp;lt;ref&amp;gt;&#039;&#039;European Parliamentary Research Service&#039;&#039;, Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment, PE 762.861, September 2024; siehe auch Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive&amp;lt;nowiki/&amp;gt;(abgerufen am 26. 11. 2024).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Februar 2025 wurde schließlich bekannt, dass die Kommission den Vorschlag für die AILD im Rahmen des Arbeitsprogramms &#039;&#039;&#039;&amp;lt;u&amp;gt;zurückgezogen&amp;lt;/u&amp;gt;&#039;&#039;&#039; hat, da keine Einigung zu erwarten wäre.&amp;lt;ref&amp;gt;Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions, Commission work programme 2025 – Moving forward together. A Bolder, Simpler, Faster Union, COM(2025) 45 final, https://commission.europa.eu/strategy-and-policy/strategy-documents/commission-work-programme/commission-work-programme-2025_en.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Demnach wird im Folgenden nur auf den ursprünglichen Vorschlag der Kommission detaillierter eingegangen, der demnach jedoch erst wieder aufgegriffen werden müsste, um entsprechende Relevanz zu erfahren. &lt;br /&gt;
&lt;br /&gt;
Dieser enthielt im Wesentlichen zwei Elemente, die als Beweiserleichterungen bei der Geltendmachung von Schadenersatz im Zusammenhang mit KI dienen sollen: zum einen eine Offenlegungspflicht für bestimmte KI-Systeme und zum anderen eine Kausalitätsvermutung im Zusammenhang mit KI-Systemen im Allgemeinen.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 13-16; Grundsätzlich konnte auch die Vermutung von Sorgfaltspflichtsverstößen gemäß Artikel 3 Absatz 5 Vorschlag AILD als ein eigenes Element zur Beweiserleichterung gesehen werden, ist aber systematisch in der Bestimmung zur Offenlegungspflicht enthalten (vgl insbesondere Seiten 10 und 15 in der Begründung des Vorschlags; siehe im Detail dazu noch im Folgenden).&amp;lt;/ref&amp;gt; Bereits der ursprüngliche Richtlinienvorschlag hat gewisse Begrifflichkeiten bzw Systematik (etwa hinsichtlich &#039;&#039;KI-Systemen&#039;&#039; und gewissen, mit diesen in Verbindung stehenden Akteuren) aus dem damals vorliegenden AI Act-Vorschlag&amp;lt;ref&amp;gt;Vgl insbesondere Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte, COM(2021) 206 final.&amp;lt;/ref&amp;gt; übernommen, die jedoch teilweise nicht mehr jenen der veröffentlichten Version des AI Act entsprechen.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 14 sowie Erwägungsgrund 15.&amp;lt;/ref&amp;gt; Dies betrifft etwa &#039;&#039;Nutzer&#039;&#039; von KI-Systemen, die in der 2024 im Amtsblatt veröffentlichten Fassung des AI Act nunmehr grundsätzlich dem &#039;&#039;Betreiber&#039;&#039; gemäß Artikel 3 Ziffer 4 AI Act entsprechen würden.  &lt;br /&gt;
&lt;br /&gt;
Dabei ist anzumerken, dass der AI Act (in der im Amtsblatt veröffentlichten Fassung) zwar eine allgemeine Definition von &#039;&#039;KI-Systemen&#039;&#039; enthält, in der Folge jedoch insbesondere Regelungen für bestimmte Risikoklassen solcher Systeme (ansonsten auch etwa für bestimmte KI-Modelle, siehe im Detail [[Artificial Intelligence Act (AIA)]]). Im Rahmen des AI Act beziehen sich insbesondere die KI-Kompetenz gemäß Artikel 4 AI Act und die Regelungen über KI-Reallabore auf KI-Systeme im Allgemeinen und nicht auf eine bestimmte Risikoklasse. KI-Systeme, die nicht den ansonsten im AI Act adressierten Risikoklassen zuzuordnen bzw von entsprechenden (AI Act-)Regelungen erfasst sind, wären demnach jedoch zum Teil auch im Rahmen des Vorschlags zur AILD relevant gewesen. In dem Zusammenhang verweisen die Erwägungsgründe des Vorschlags zur AILD quasi darauf, dass auch bei nicht-Hochrisiko-Systemen bestimmte KI-Merkmale, wie Autonomie und Undurchsichtigkeit, zu Beweisschwierigkeiten führen könnten.&amp;lt;ref&amp;gt;Vgl insbesondere Erwägungsgründe 26 bis 28.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Mit dem Richtlinienvorschlag sollte ein &#039;&#039;&#039;Mindestharmonisierungsansatz&#039;&#039;&#039; verfolgt werden, wodurch „&#039;&#039;es Klägern im Fall eines durch KI-Systeme verursachten Schadens&#039;&#039;“ ermöglicht werden sollte „&#039;&#039;sich auf günstigere Vorschriften des nationalen Rechts zu berufen“&#039;&#039; (Erwägungsgrund 14).&amp;lt;ref&amp;gt;Im Allgemeinen ist anzumerken, dass bei den Begrifflichkeiten des Vorschlags AILD wie auch der neuen Produkthaftungsrichtlinie im Normtext keine gendergerechte Sprache verwendet wird. Daher kann, soweit auf diese Begrifflichkeiten Bezug genommen wird, auch hier keine gendergerechte Sprache verwendet werden. Abgesehen davon wird dies jedenfalls entsprechend berücksichtigt.&amp;lt;/ref&amp;gt; Weiters sollte die vorgeschlagene Richtlinie quasi nur bestimmte ergänzende Regelungen für die zivilrechtliche (nicht strafrechtliche), verschuldensabhängige, außervertragliche Haftung für durch KI-Systeme verursachten Schäden in Bezug auf die bestehenden Haftungssysteme einführen.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13, Erwägungsgründe 10, 20-24, Artikel 1.&amp;lt;/ref&amp;gt; Nach Erwägungsgrund 24 Vorschlag AILD sind dabei &amp;quot;[i]&#039;&#039;n Bereichen, die nicht durch das Unionsrecht harmonisiert sind,&#039;&#039; [...] &#039;&#039;weiterhin nationale Rechtsvorschriften&#039;&#039; [...]&amp;quot; einschlägig.  &lt;br /&gt;
&lt;br /&gt;
In Bezug auf entsprechende Verschuldenshaftungen hält Erwägungsgrund 3 im Allgemeinen auch Folgendes fest, was gewissermaßen als Ausgangsbasis für die Regelungen des Vorschlags zur AILD zu sehen ist: &amp;lt;blockquote&amp;gt;„&#039;&#039;Wenn ein Geschädigter für einen entstandenen Schaden Schadensersatz verlangt, so muss er &#039;&#039;&#039;nach den allgemeinen Vorschriften der Mitgliedstaaten für die verschuldensabhängige Haftung&#039;&#039;&#039; in der Regel eine &#039;&#039;&#039;fahrlässige oder vorsätzliche schädigende Handlung oder Unterlassung („Verschulden“)&#039;&#039;&#039; der Person, die potenziell für diesen Schaden haftbar ist, sowie einen &#039;&#039;&#039;ursächlichen Zusammenhang zwischen diesem Verschulden und dem betreffenden Schaden&#039;&#039;&#039; nachweisen.&#039;&#039;“ (Hervorhebungen hinzugefügt)&amp;lt;/blockquote&amp;gt;Der eingeschränkte Anwendungsbereich wurde konkret insbesondere durch Artikel 1 sowie die Definition von Schadenersatzansprüchen, auf die sich die Richtlinie beziehen sollte (Artikel 2 Ziffer 5 Vorschlag AILD), umgesetzt. Diese Definition umfasste demnach: „&#039;&#039;einen außervertraglichen verschuldensabhängigen zivilrechtlichen Anspruch auf Ersatz des Schadens, der durch ein Ergebnis eines KI-Systems oder aber dadurch, dass dieses System das von ihm erwartete Ergebnis nicht hervorgebracht hat, verursacht wurde&#039;&#039;“. &lt;br /&gt;
&lt;br /&gt;
Auch &#039;&#039;Beklagte&#039;&#039; und &#039;&#039;Kläger&#039;&#039; bzw &#039;&#039;potenzielle Kläger&#039;&#039; wurden im Richtlinienvorschlag entsprechend definiert (Artikel 2 Ziffern 6 bis 8 Vorschlag AILD). &#039;&#039;Beklagte&#039;&#039; sollten demnach Personen sein, „&#039;&#039;gegen die ein Schadensersatzanspruch geltend gemacht wird&#039;&#039;“ (Artikel 2 Ziffer 8 Vorschlag AILD). Die Definition von Kernbegriffen, wie &#039;&#039;Verschulden,&#039;&#039; bzw die Regelung von allgemeinen Aspekten der Haftung sollte dabei aber prinzipiell (anderen) Vorschriften des Unions- bzw nationalen Rechts überlassen werden.&amp;lt;ref&amp;gt;Siehe insbesondere Artikel 1(3)(d), Erwägungsgründe 10 und 22; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Kausalitätsvermutung (Artikel 4) ===&lt;br /&gt;
Artikel 4 sollte als einen zentralen Aspekt der Richtlinie eine widerlegbare Kausalitätsvermutung regeln. Unter gewissen Voraussetzungen sollte dadurch zwecks der Anwendung von Haftungsvorschriften in Bezug auf erfasste Schadenersatzansprüche ein Kausalzusammenhang „&#039;&#039;zwischen dem Verschulden des Beklagten und dem vom KI-System hervorgebrachten Ergebnis oder aber der Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat&#039;&#039;“ vermutet werden (Artikel 4 Absatz 1 Vorschlag AILD). &lt;br /&gt;
&lt;br /&gt;
Die wesentlichen Voraussetzungen sollten dabei prinzipiell sein, dass der &#039;&#039;Kläger&#039;&#039; nachweist, &amp;quot;&#039;&#039;dass ein Verschulden seitens des Beklagten oder einer Person, für deren Verhalten der Beklagte verantwortlich ist, vorliegt, da gegen&#039;&#039; [...]&amp;quot; gewisse einschlägige Sorgfaltspflichten verstoßen wurde (Artikel 4 Absatz 1 Buchstabe a  Vorschlag AILD), sowie dass das Ergebnis oder Nicht-Ergebnis des KI-Systems zu dem entsprechenden Schaden geführt hat (Artikel 4 Absatz 1 Buchstabe c Vorschlag AILD). Unter &amp;quot;&#039;&#039;Sorgfaltspflicht&amp;quot;&#039;&#039; verstand Artikel 2 Ziffer 9 Vorschlag AILD zunächst prinzipiell &amp;quot;&#039;&#039;einen im nationalen Recht oder im Unionsrecht festgelegten Verhaltensmaßstab, der einzuhalten ist, um eine Beeinträchtigung von im nationalen Recht oder im Unionsrecht anerkannten Rechtsgütern, einschließlich Leben, körperlicher Unversehrtheit, Eigentum und Wahrung der Grundrechte, zu vermeiden&#039;&#039;&amp;quot;. Siehe zu entsprechenden Einschränkungen sogleich.  &lt;br /&gt;
&lt;br /&gt;
Im Kontext von Hochrisiko-KI sollte bei einem Verstoß gegen eine Anordnung zur Offenlegung oder Sicherung von entsprechenden Beweismitteln gemäß Artikel 3 Absatz 5 Vorschlag AILD ein Sorgfaltspflichtverstoß  auch vermutet werden können (siehe [[KI-Haftungsregelungen#Offenlegungspflicht (Artikel 3)|Offenlegungspflicht (Artikel 3)]]), was wiederum auch für die Kausalitätsvermutung einschlägig gewesen wäre (siehe Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD). Dabei ist allerdings nicht ganz klar, ob nur der (objektive) Pflichtenverstoß oder auch ein (subjektives) Verschulden vermutet werden sollte, weil sich Artikel 3 Absatz 5 (nur) auf einen &#039;&#039;&#039;Verstoß gegen einschlägige Sorgfaltspflichten&#039;&#039;&#039; bezieht, während Artikel 4 Absatz 1 Buchstabe a davon gesprochen hat, dass &amp;quot;&#039;&#039;gemäß Artikel 3 Absatz 5&#039;&#039;&amp;quot; vermutet werden soll, &amp;quot;&#039;&#039;dass ein &#039;&#039;&#039;Verschulden&#039;&#039;&#039;&#039;&#039; [...] &#039;&#039;vorliegt&#039;&#039;&amp;quot;.&amp;lt;ref&amp;gt;Hervorhebungen hinzugefügt. Zur Unterscheidung von (objektivem) Sorgfaltsmaßstab(/Sorgfaltsverstoß) und (subjektivem) Verschulden vgl national etwa zur Haftung der GmbH-Geschäftsführung: OGH 3. 8. 2021, 8 ObA 109/20t, insbesondere Randziffer 80 mit weiteren Nachweisen; &#039;&#039;Feltl/Told&#039;&#039; in &#039;&#039;Gruber/Harrer&#039;&#039; (Hrsg), GmbHG² (2018) § 25 Rz 120.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
Für die Anwendbarkeit der Kausalitätsvermutung musste zudem auf „&#039;&#039;der&#039;&#039; &#039;&#039;Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden&amp;quot;&#039;&#039; können, &#039;&#039;&amp;quot;dass das Verschulden das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat&#039;&#039;“ (Artikel 4 Absatz 1 Buchstabe b Vorschlag AILD). Nach Erwägungsgrund 25 Vorschlag AILD sollte dies etwa im Fall gegeben sein, dass das &amp;quot;&#039;&#039;Verschulden in einer Verletzung einer Sorgfaltspflicht in Bezug auf die Begrenzung des Betriebsbereichs des KI-Systems besteht und der Schaden außerhalb des Betriebsbereichs eingetreten ist&#039;&#039;&amp;quot;. Demgegenüber wäre die Voraussetzung demnach &amp;quot;&#039;&#039;bei einem Verstoß gegen eine Verpflichtung, bestimmte Dokumente bei einer bestimmten Behörde einzureichen oder sich bei einer bestimmten Behörde zu registrieren, obwohl dies für die betreffende bestimmte Tätigkeit vorgesehen oder sogar ausdrücklich für den Betrieb eines KI-Systems gelten könnte,&#039;&#039; [...]&amp;quot; nicht erfüllt. &lt;br /&gt;
&lt;br /&gt;
Die wesentliche Konsequenz der Kausalitätsvermutung wäre demnach eine gewisse &#039;&#039;&#039;gedankliche Verlagerung des (Nicht-)Resultats einer KI hin zu einer entsprechenden Handlung oder Unterlassung einer Person (für die Zwecke der einschlägigen Haftung dieser Person)&#039;&#039;&#039; gewesen.&lt;br /&gt;
&lt;br /&gt;
Für die Anwendung der Vermutung waren allerdings noch weitere Einschränkungen vorgesehen: &lt;br /&gt;
&lt;br /&gt;
* Hinsichtlich der dabei relevanten Sorgfaltspflichten sollten im Allgemeinen nur solche erfasst sein, &#039;&#039;&#039;deren unmittelbarer Zweck die Verhinderung des eingetretenen Schadens&#039;&#039;&#039; &#039;&#039;&#039;ist&#039;&#039;&#039;.&lt;br /&gt;
* Hinsichtlich Hochrisiko-KI-Systemen, für die gewisse Anforderungen nach dem AI Act(-Vorschlag) gelten, sollten jedenfalls bezüglich &#039;&#039;&#039;deren Anbietern und Personen, die Anbieter-Pflichten gemäß AI Act(-Vorschlag) unterliegen,&#039;&#039;&#039; dabei nur &#039;&#039;&#039;bestimmte Anforderungen nach dem AI Act&#039;&#039;&#039;(-Vorschlag) in Frage kommen, wie etwa die Konzeption und Entwicklung gemäß den Transparenzanforderungen des AI Act(-Vorschlags)&amp;lt;ref&amp;gt;Artikel 4 Absatz 2 Buchstabe b Vorschlag AILD.&amp;lt;/ref&amp;gt;. Zudem sollten dabei &amp;quot;&#039;&#039;die im Rahmen des Risikomanagementsystems unternommenen Schritte und dessen Ergebnisse&amp;quot;&#039;&#039; Berücksichtigung finden (jeweils Artikel 4 Absatz 2 Vorschlag AILD; siehe auch Erwägungsgrund 26 Vorschlag AILD).&lt;br /&gt;
* In Hinblick auf Nutzer von Hochrisiko-KI, für die gewisse Anforderungen nach dem AI Act(-Vorschlag) gelten, war prinzipiell eine ähnliche Regelung vorgesehen (Artikel 4 Absatz 3 Vorschlag AILD). Allerdings ging aus dieser nicht so eindeutig hervor, inwieweit die entsprechende Aufzählung von Anforderungen nach dem AI Act-Vorschlag, deren Verletzung für die Kausalitätsvermutung einschlägig wäre, abschließend sein sollte, insbesondere weil dabei kein „&#039;&#039;nur&#039;&#039;“ (oder eine ähnliche Klarstellung) verwendet wurde. zieht man die Erwägungsgründe (insbesondere 24 und 26) des Vorschlags AILD zur Auslegung heran, sollte dieser Regelungsvorschlag aber wohl so zu verstehen sein, dass neben den aufgezählten Pflichten gemäß dem AI Act(-Vorschlag) prinzipiell auch “&#039;&#039;andere im Unionsrecht oder im nationalen Recht festgelegte Sorgfaltspflichten&#039;&#039;” für solche Nutzer in Frage gekommen wären, im Hinblick auf den AI Act-Vorschlag aber nur die aufgezählten.&amp;lt;ref&amp;gt;Vgl Erwägungsgrund 26 Vorschlag AILD, worin unter anderem festgehalten wird, dass die Richtlinie Verschulden derartiger Nutzer erfassen sollte, ”&#039;&#039;wenn das betreffende Verschulden in der Nichteinhaltung &#039;&#039;&#039;bestimmter spezifischer Anforderungen&#039;&#039;&#039;”&#039;&#039; gemäß AI Act(-Vorschlag) bestünde; Hervorhebungen hinzugefügt.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Sofern das betreffende KI-System durch den &#039;&#039;Beklagten&#039;&#039; „&#039;&#039;im Rahmen einer persönlichen nicht beruflichen Tätigkeit verwendet&#039;&#039;“ wird, wäre die Vermutung im Allgemeinen nur dann anwendbar gewesen, „&#039;&#039;wenn der Beklagte die Betriebsbedingungen des KI-Systems wesentlich verändert hat oder wenn er verpflichtet und in der Lage war, die Betriebsbedingungen des KI-Systems festzulegen, und dies unterlassen hat&#039;&#039;“ (Artikel 4 Absatz 6 Vorschlag AILD).&lt;br /&gt;
&lt;br /&gt;
Die Vermutung hätte zudem vom &#039;&#039;Beklagten&#039;&#039; widerlegt werden können (Artikel 4 Absatz 7 Vorschlag AILD).&lt;br /&gt;
&lt;br /&gt;
=== Offenlegungspflicht (Artikel 3) ===&lt;br /&gt;
Die Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD sollte sich auf &#039;&#039;&#039;einschlägige Beweismittel&#039;&#039;&#039; zu bestimmten &#039;&#039;&#039;Hochrisiko-KI-Systemen&#039;&#039;&#039;, die einen Schaden verursacht haben sollen, beziehen, die wiederum Anbietern, Personen, die Anbieter-Pflichten gemäß AI Act(-Vorschlag) unterliegen, oder Nutzern vorliegen (Artikel 3 Absatz 1 Vorschlag AILD). In Hinblick auf die Beschränkung auf Hochrisiko-KI-Systeme ist insbesondere auf Erwägungsgrund 18 des Vorschlags AILD zu verweisen. &lt;br /&gt;
&lt;br /&gt;
Dabei sollten nämlich &#039;&#039;&#039;diejenigen zur Offenlegung verpflichtet&#039;&#039;&#039; werden, die relevante Beweismittel – etwa aufgrund entsprechender Dokumentationspflichten gemäß AI Act(-Vorschlag) – &#039;&#039;&#039;innehaben&#039;&#039;&#039; (vgl Erwägungsgrund 16 Vorschlag AILD). Erwägungsgrund 16 Vorschlag AILD hielt zum Hintergrund zudem fest: &amp;quot;&#039;&#039;Der Zugang zu Informationen über bestimmte Hochrisiko-KI-Systeme, bei denen der Verdacht besteht, dass sie einen Schaden verursacht haben, ist ein wichtiger Faktor für die Feststellung, ob Schadensersatzansprüche geltend gemacht werden können, und für die Begründung derselben&#039;&#039;&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Zur Geltendmachung berechtigt – durch Antrag bei den entsprechenden nationalen Gerichten – wären gemäß Artikel 3 Absatz 1 Vorschlag AILD grundsätzlich entsprechende &#039;&#039;Kläger&#039;&#039; und &#039;&#039;potenzielle Kläger&#039;&#039; (vgl erneut Artikel 2 Ziffern 6 und 7 Vorschlag AILD) gewesen. Dabei hätte aber der Unterschied bestanden, dass &#039;&#039;potenzielle Kläger&#039;&#039; nur dann erfasst gewesen wären, wenn sie die betreffende Person &#039;&#039;&#039;&#039;&#039;zuvor&#039;&#039;&#039;&#039;&#039; vergeblich zur Offenlegung aufgefordert haben.&amp;lt;ref&amp;gt;Das Wort &amp;quot;&#039;&#039;zuvor&#039;&#039;&amp;quot; bezog sich dabei wohl eher auf den Antrag als auf die schlussendliche gerichtliche Anordnung (vgl Artikel 3 Absatz 1 Vorschlag AILD, etwa auch in englischer Sprachfassung).&amp;lt;/ref&amp;gt; Weiters müssten diese „[z]&#039;&#039;ur Stützung seines Antrags&#039;&#039; [...] &#039;&#039;die Plausibilität&#039;&#039; [...] [ihres] &#039;&#039;Schadensersatzanspruchs durch die Vorlage von Tatsachen und Beweismitteln ausreichend belegen&#039;&#039;“ (jeweils Artikel 3 Absatz 1 Vorschlag AILD), während (tatsächliche) &#039;&#039;Kläger&#039;&#039; als Voraussetzung für die gerichtliche Anordnung in Verbindung mit einem einschlägigen Schadenersatzanspruch „&#039;&#039;alle angemessenen Anstrengungen unternommen&#039;&#039;“ haben müssten, „&#039;&#039;die einschlägigen Beweismittel vom Beklagten zu beschaffen&#039;&#039;“ (Artikel 3 Absatz 2 Vorschlag AILD). &lt;br /&gt;
&lt;br /&gt;
Erwägungsgrund 17 Vorschlag AILD hielt in diesem Kontext (tendenziell im Zusammenhang mit &#039;&#039;potenziellen Klägern&#039;&#039;) auch fest: „&#039;&#039;Die Anordnung der Offenlegung sollte zu einer Vermeidung unnötiger Rechtsstreitigkeiten und Kosten, die durch ungerechtfertigte oder wahrscheinlich erfolglose Ansprüche verursacht werden, für die jeweiligen Prozessparteien führen&#039;&#039;“.&lt;br /&gt;
&lt;br /&gt;
Die Offenlegung sollte schließlich durch die entsprechenden nationale Gericht angeordnet werden.&amp;lt;ref&amp;gt;Vgl insbesondere Artikel 3 und Erwägungsgrund 19 Vorschlag AILD.&amp;lt;/ref&amp;gt; Dabei wären gemäß die &#039;&#039;&#039;Erforderlichkeit und Verhältnismäßigkeit zu beachten&#039;&#039;&#039; gewesen, wobei die Interessen aller Parteien (inklusive betroffener Dritter), wie insbesondere in Hinblick auf &#039;&#039;&#039;Geschäftsgeheimnisse&#039;&#039;&#039; im Sinne des Artikels 2 Absatz 1 der Richtlinie (EU) 2016/943, zu berücksichtigen gewesen wären (siehe im Detail Artikel 3 Absatz 4 Vorschlag AILD).&amp;lt;ref&amp;gt;Zum Hintergrund ist auf insbesondere auf Erwägungsgrund 19 Vorschlag AILD zu verweisen.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Dabei sollten die Mitgliedstaaten den jeweiligen nationalen Gerichten Befugnisse für die Anordnung spezifischer Maßnahmen zur entsprechenden &#039;&#039;&#039;Beweismittelsicherung&#039;&#039;&#039; zugestehen (Artikel 3 Absatz 3 Vorschlag AILD) und jeweils &#039;&#039;&#039;angemessene Rechtsbehelfe gegen Anordnungen&#039;&#039;&#039; zur Offenlegung oder Beweismittelsicherung für die Personen vorsehen, gegen die diese ergehen (Artikel 3 Absatz 4 letzter Satz).           &lt;br /&gt;
&lt;br /&gt;
Für den Fall, dass ein entsprechender &#039;&#039;Beklagter&#039;&#039; &amp;quot;&#039;&#039;im Rahmen eines Schadensersatzanspruchs&#039;&#039;&amp;quot; einer entsprechenden gerichtlichen Anordnung zur Beweismitteloffenlegung oder -sicherung nicht nachkommt, ordnete Artikel 3 Absatz 5 Vorschlag AILD schließlich die &#039;&#039;&#039;Vermutung&#039;&#039;&#039; für das jeweilige Gericht an, „&#039;&#039;dass der Beklagte &#039;&#039;&#039;gegen seine einschlägige Sorgfaltspflicht verstößt&#039;&#039;&#039;&#039;&#039;&amp;quot; (Hervorhebungen hinzugefügt). Das sollte &#039;&#039;insbesondere&#039;&#039; dann schlagend werden, wenn die entsprechend geforderten Beweismittel Umstände rund um die Verletzung jener AI Act-Anforderungen durch Nutzer bzw Anbieter und Personen, die Anbieter-Pflichten gemäß AI Act(-Vorschlag) unterliegen, im Zusammenhang mit Hochrisiko-KI nachweisen sollen, die gemäß Artikel 4 Absatz 2 bzw 3 für die Kausalitätsvermutung nach dem Vorschlag AILD relevant wären. Vgl zu dieser Vermutung auch schon oben unter [[KI-Haftungsregelungen#Kausalitätsvermutung (Artikel 4)|Kausalitätsvermutung (Artikel 4)]].&lt;br /&gt;
----&lt;br /&gt;
&lt;br /&gt;
== Produkthaftungsrichtlinie neu ==&lt;br /&gt;
&lt;br /&gt;
=== Allgemeines und Übergangsbestimmungen ===&lt;br /&gt;
Neben dem Vorschlag zur AILD enthielt auch schon der Vorschlag für eine neue Produkthaftungsrichtlinie Aspekte, die für die Haftung im Zusammenhang mit KI relevant sind.&amp;lt;ref&amp;gt;Siehe grundlegend Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final,  insbesondere Seite 6.&amp;lt;/ref&amp;gt; Dieser Vorschlag, der auf eine Ersetzung der aus den 1980ern stammenden, alten Produkthaftungsrichtlinie&amp;lt;ref&amp;gt;Richtlinie 85/374/EWG des Rates vom 25. Juli 1985 zur Angleichung der Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Haftung für fehlerhafte Produkte, ABl L 1985/210, 29.&amp;lt;/ref&amp;gt; abzielte, wurde prinzipiell als Paket mit dem Vorschlag für die AILD schon 2022 von der Kommission vorgelegt.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 5 und 8; vgl auch Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2 und 3.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Im Gegensatz zur AILD ist die neue Produkthaftungsrichtlinie (im Folgenden: PHRL neu) aber mittlerweile bereits im Amtsblatt veröffentlicht worden und 2024 prinzipiell in Kraft getreten.&amp;lt;ref&amp;gt;Siehe Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024 (insbesondere Artikel 23).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die PHRL neu gilt allerdings erst für Produkte, die &#039;&#039;&#039;nach dem 9. 12. 2026&#039;&#039;&#039; in Verkehr gebracht oder in Betrieb genommen werden (Artikel 2 Absatz 1 PHRL neu). Die Mitgliedstaaten müssen diese demnach &#039;&#039;&#039;bis zum 9. 12. 2026&#039;&#039;&#039; in nationales Recht umsetzen (Artikel 22 Absatz 1 PHRL neu). &#039;&#039;&#039;Mit Wirkung vom 9. 12. 2026&#039;&#039;&#039; wird grundsätzlich auch die alte Produkthaftungsrichtlinie aufgehoben, wenngleich diese auch weiterhin für Produkte gelten soll, die &amp;quot;&#039;&#039;vor diesem Zeitpunkt in Verkehr gebracht oder in Betrieb genommen wurden&#039;&#039;&amp;quot; (Artikel 21 PHRL neu).&lt;br /&gt;
&lt;br /&gt;
Schon die alte Produkthaftungsrichtlinie regelt prinzipiell eine verschuldensunabhängige Haftung im Zusammenhang mit fehlerhaften Produkten für bestimmte davon zu unterscheidende Schäden, wobei die Haftung vorrangig den Produkthersteller trifft.&amp;lt;ref&amp;gt;Vgl &#039;&#039;Handig&#039;&#039;, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196).&amp;lt;/ref&amp;gt; Dies ist im Wesentlichen auch Kern der PHRL neu, sie bringt allerdings auch eine Reihe von Neuerungen bzw Adaptionen mit sich, die insbesondere auch KI betreffen. Neben &#039;&#039;Produkten im digitalen Zeitalter&#039;&#039; sollte die PHRL neu insbesondere auch etwa die Kreislaufwirtschaft berücksichtigen.&amp;lt;ref&amp;gt;Vgl insgesamt Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 2, 6, 11 und 12, Erwägungsgrund 2, Artikel 1; vgl zum Entwurfsstadium auch &#039;&#039;Handig&#039;&#039;, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== Neuer Produktbegriff und grundlegender Regelungsgegenstand ===&lt;br /&gt;
Im Rahmen der alten Rechtslage gab es umfassende Unklarheiten (bzw potenzielle Regelungslücken) in Hinblick darauf, inwieweit Software vom Produktbegriff erfasst ist.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; Daraufhin sollte &#039;&#039;&#039;Software&#039;&#039;&#039; (bzw insbesondere auch &#039;&#039;&#039;KI&#039;&#039;&#039;) in den Produktbegriff aufgenommen werden.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 6, 9, 11, 12 und 14, Erwägungsgrund 12, Artikel 4 Ziffer 1.&amp;lt;/ref&amp;gt; Der schlussendlich beschlossene, neue Produktbegriff umfasst im Detail jetzt &#039;&#039;&#039;alle beweglichen Sachen&#039;&#039;&#039;, &#039;&#039;&#039;selbst wenn diese in andere bewegliche oder unbewegliche Sachen integriert&#039;&#039;&#039; oder &#039;&#039;&#039;mit diesen verbunden&#039;&#039;&#039; sind, und explizit auch &#039;&#039;&#039;Software&#039;&#039;&#039;, Elektrizität, digitale Konstruktionsunterlagen und Rohstoffe (Artikel 4 Ziffer 1 PHRL neu). Nach Erwägungsgrund 13 PHRL neu sind unter &#039;&#039;Software&#039;&#039; auch etwa &#039;&#039;&#039;KI-Systeme&#039;&#039;&#039; zu verstehen.&amp;lt;ref&amp;gt;Vgl auch Erwägungsgrund 3 PHRL neu und zum Entwurfsstadium &#039;&#039;Handig&#039;&#039;, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (197); in Erwägungsgrund 13 PHRL neu wird zudem auf die &#039;&#039;Anbieter von KI-Systemen&#039;&#039; gemäß AI Act Bezug genommen, weshalb davon auszugehen sein wird, dass mit &#039;&#039;KI-Systemen&#039;&#039; wohl jene im Sinne des AI Act (Artikel 3 Ziffer 1 AI Act) gemeint sind. &amp;lt;/ref&amp;gt; Mit der Adressierung von &#039;&#039;Software&#039;&#039; wurde dabei wohl Technologieneutralität bezweckt.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 14.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Trotz der Neufassung des Produktbegriffs ergeben sich allerdings Auslegungsfragen hinsichtlich der Anwendbarkeit der PHRL neu. So soll im Rahmen der PHRL neu in gewisser Weise prinzipiell auch für &#039;&#039;&#039;&#039;&#039;Komponenten&#039;&#039;&#039;&#039;&#039; gehaftet werden (vgl im Detail insbesondere Artikel 8 Absatz 1, Artikel 11 PHRL neu), worunter körperliche oder nicht-körperliche Gegenstände, Rohstoffe oder verbundene Dienste verstanden werden, die in ein Produkt integriert oder damit verbunden sind (Artikel 4 Ziffer 4 PHRL neu). Mit &#039;&#039;&#039;&#039;&#039;verbundenen Diensten&#039;&#039;&#039;&#039;&#039; sind digitale Dienste gemeint, welche derart in ein Produkt integriert oder mit diesem verbunden sind, dass dieses ohne sie (eine oder mehrere seiner) Funktionen nicht erfüllen könnte (Artikel 4 Ziffer 3 PHRL neu). Dies ist vor allem deswegen relevant, weil nach Erwägungsgrund 17 PHRL neu prinzipiell &#039;&#039;&#039;Dienstleistungen&#039;&#039;&#039; per se nicht von der Richtlinie umfasst sein sollten. Daher könnten sich in der Folge voraussichtlich schwierige Abgrenzungsfragen, insbesondere in Hinblick auf tatbestandsmäßige potenzielle Auswirkungen auf die Funktionsweise des Produkts, stellen.&amp;lt;ref&amp;gt;Vgl zum Entwurfsstadium im Zusammenhang mit &#039;&#039;digitalisierten Wissensinhalten&#039;&#039; auch &#039;&#039;Handig&#039;&#039;, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196 f); vgl grundlegend dazu insbesondere auch Erwägungsgrund 17 PHRL neu.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Zudem wird in Erwägungsgrund 13 PHRL neu in Bezug auf Software wiederum angemerkt, dass diese „&#039;&#039;unabhängig von der Art ihrer Bereitstellung oder Nutzung&#039;&#039;“, demnach „&#039;&#039;unabhängig davon, ob die Software auf einem Gerät gespeichert oder über ein Kommunikationsnetz oder Cloud-Technologien abgerufen oder durch ein Software-as-a-Service-Modell bereitgestellt wird&#039;&#039;“ als &#039;&#039;Produkt&#039;&#039; erfasst sein sollte. Daraus könnten sich demnach wiederum Abgrenzungsfragen in Hinblick auf &#039;&#039;&#039;Dienstleistungen&#039;&#039;&#039; ergeben, die mit Software verbunden sind. Außerdem sollen &#039;&#039;digitale Dateien&#039;&#039; laut Erwägungsgrund 16 PHRL neu per se keine &#039;&#039;Produkte&#039;&#039; darstellen (abgesehen von gewissen &#039;&#039;digitale Konstruktionsunterlagen&#039;&#039;).  Weiters sollen laut Erwägungsgrund 13 PHRL neu auch &#039;&#039;Informationen&#039;&#039; nicht als &#039;&#039;Produkt&#039;&#039; zu sehen sein. Die Produkthaftungsregelungen sollten demnach „&#039;&#039;nicht für den Inhalt digitaler Dateien wie Mediendateien oder E-Books oder den reinen Quellcode von Software gelten&#039;&#039;“. In dem Zusammenhang scheint in der Folge aber überlegenswert, inwieweit das auch &#039;&#039;&#039;Komponenten&#039;&#039;&#039; betreffen soll, also inwiefern etwa Sourcecode, oder auch Trainingsdaten für eine KI, eine (fehlerhafte) Komponente eines Softwareprodukts darstellen könnten.&amp;lt;ref&amp;gt;Dabei sollte wohl insbesondere die Frage zentral sein, inwieweit ein quasi funktional essentieller &#039;&#039;nicht-körperlicher Gegenstand&#039;&#039; vorliegt, wobei Erwägungsgrund 20 PHRL neu implizit etwa Daten, wie ursprünglich auf einer Festplatte gespeicherte digitale Dateien, als &#039;&#039;nicht-körperliche Vermögensgegenstände&#039;&#039; sieht; vgl zum Entwurfsstadium im Zusammenhang mit digitalisierten Wissensinhalten erneut auch &#039;&#039;Handig&#039;&#039;, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196 f).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Eine wichtige Voraussetzung für die Haftung ist die &#039;&#039;&#039;Fehlerhaftigkeit&#039;&#039;&#039; (eines Produkts bzw einer Komponente&amp;lt;ref&amp;gt;Vgl im Detail Artikeln 5, 6, 7 und 8 PHRL neu, wobei insbesondere anzumerken ist, dass der Wortlaut von Artikel 5, worin der Schadenersatzanspruch grundlegend statuiert wird, nur auf &#039;&#039;fehlerhafte Produkte&#039;&#039; und nicht auch &#039;&#039;fehlerhafte Komponenten&#039;&#039; Bezug nimmt.&amp;lt;/ref&amp;gt;), die in Artikel 7 PHRL neu in Hinblick auf Produkte&amp;lt;ref&amp;gt;&#039;&#039;Komponenten&#039;&#039; finden dabei wiederum grundsätzlich keine Erwähnung.&amp;lt;/ref&amp;gt; prinzipiell damit umschrieben wird, dass das Produkt &amp;quot;&#039;&#039;nicht die Sicherheit bietet&#039;&#039;&amp;quot;, die Personen erwarten dürfen oder die von Unions- oder nationalem Recht gefordert wird. Artikel 7 Absatz 2 PHRL neu regelt in der Folge, dass sämtliche Umstände bei dieser Beurteilung Berücksichtigung finden müssen und zählt dazu einige Aspekte auf, wie auch etwa die &amp;quot;&#039;&#039;einschlägigen Anforderungen an die Produktsicherheit, einschließlich sicherheitsrelevanter Cybersicherheitsanforderungen&amp;quot;&#039;&#039; (Buchstabe f). Dazu ist allerdings anzumerken, dass die Fehlerhaftigkeit des Produkts &#039;&#039;&#039;vermutet&#039;&#039;&#039; werden soll, wenn der Kläger nachweist, dass das Produkt &#039;&#039;&#039;&amp;lt;u&amp;gt;verbindliche&amp;lt;/u&amp;gt;&#039;&#039;&#039; &#039;&#039;&#039;Produktsicherheitsanforderungen&#039;&#039;&#039; gemäß Unions- oder nationalem Recht nicht erfüllt, sofern diese den Schutz vor dem Risiko des Schadens, den die geschädigte Person erlitten hat, gewährleisten sollen (Artikel 10 Ansatz 2 Buchstabe b PHRL neu). Siehe weiters noch unter [[KI-Haftungsregelungen#AI Act und PHRL neu|Synergien; AI Act und PHRL neu]].&lt;br /&gt;
&lt;br /&gt;
Die Frage, wer welche Schäden geltend machen kann, wird insbesondere in den Artikeln 5 und 6 der PHRL neu adressiert. Demnach soll zunächst grundsätzlich „&#039;&#039;jede natürliche Person, die einen durch ein fehlerhaftes Produkt verursachten Schaden erleidet&#039;&#039;&amp;quot;, einen Schadenersatzanspruch gemäß der PHRL neu haben, wobei dieser auch durch gewisse andere Personen geltend gemacht werden können soll (vgl im Detail Artikel 5 PHRL neu). Dabei sollen lediglich folgende Kategorien von Schäden grundsätzlich ersetzt werden (Artikel 6 Absatz 1 PHRL neu): &lt;br /&gt;
&lt;br /&gt;
* Tod oder Körperverletzung, einschließlich medizinisch anerkannter Beeinträchtigungen der psychischen Gesundheit &lt;br /&gt;
* Beschädigung oder Zerstörung von Sachen, &#039;&#039;&#039;außer:&#039;&#039;&#039; &lt;br /&gt;
** das fehlerhafte Produkt selbst &lt;br /&gt;
** ein Produkt, das durch eine fehlerhafte Komponente dieses Produkts beschädigt wurde, die vom Hersteller des Produkts oder unter der Kontrolle dieses Herstellers in das Produkt integriert oder mit diesem verbunden wurde&lt;br /&gt;
** Sachen, die ausschließlich für berufliche Zwecke verwendet werden&lt;br /&gt;
* Vernichtung oder Beschädigung von Daten, die nicht für berufliche Zwecke verwendet werden&lt;br /&gt;
&lt;br /&gt;
Dabei sind insbesondere sich daraus ergebende Vermögensschäden abgedeckt (Artikel 6 Absatz 2 erster Satz PHRL neu). Zudem sollen aber auch entsprechende immaterielle Schäden abgedeckt werden, &amp;quot;&#039;&#039;soweit für Schäden dieser Art nach nationalem Recht eine Entschädigung verlangt werden kann&#039;&#039;&amp;quot; (Artikel 6 Absatz 2 zweiter Satz PHRL neu).Die PHRL neu enthält im Gegensatz zur alten Produkthaftungsrichtlinie auch keinen Selbstbehalt für Sachschäden mehr.&amp;lt;ref&amp;gt;Vgl zum Entwurfsstadium &#039;&#039;Handig&#039;&#039;, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (197) sowie Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seiten 1 und 10.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
Welcher Wirtschaftsakteur in weiterer Folge für entsprechende Schäden haftbar gemacht werden kann, wird im Detail vor allem in Artikel 8 PHRL neu geregelt. Dies betrifft insbesondere die Hersteller der fehlerhaften Produkte und die Hersteller von fehlerhaften Komponenten, die &amp;quot;&#039;&#039;unter der Kontrolle des Herstellers in ein Produkt integriert oder damit verbunden&#039;&#039;&amp;quot;&amp;lt;ref&amp;gt;Zur Definition des Begriffs „&#039;&#039;Kontrolle des Herstellers&#039;&#039;“ siehe Artikel 4 Z 5 PHRL neu.&amp;lt;/ref&amp;gt; wurden und dessen Fehlerhaftigkeit verursacht haben (Artikel 8 Absatz 1 Unterabsatz 1 Buchstaben a und b PHRL neu). Zudem soll die Haftung des Produktherstellers nach Artikel 8 Absatz 1 Unterabsatz 1 Buchstabe a PHRL neu auch Schäden umfassen, &amp;quot;&#039;&#039;die durch eine fehlerhafte Komponente verursacht werden, wenn diese unter der Kontrolle des Herstellers in ein Produkt integriert oder damit verbunden wurde&#039;&#039;&amp;quot;.&amp;lt;ref&amp;gt;Siehe Artikel 8 Absatz 1 Unterabsatz 2 PHRL neu, wobei allerdings erneut auch auf die Formulierung von Artikel 5 PHRL neu hinzuweisen ist.&amp;lt;/ref&amp;gt; Daneben sollen unter Umständen auch weitere Personen in Haftung genommen werden können (siehe im Detail Artikel 8 Absatz 2 und folgende PHRL neu). &lt;br /&gt;
&lt;br /&gt;
Die verschiedenen Akteure werden grundsätzlich in Artikel 4 PHRL neu definiert, so etwa der &#039;&#039;Hersteller&#039;&#039; in Ziffer 10&amp;lt;ref&amp;gt;Dabei wird jedoch wiederum nur auf &#039;&#039;Produkte&#039;&#039; und nicht auf &#039;&#039;Komponenten&#039;&#039; explizit Bezug genommen.&amp;lt;/ref&amp;gt;. Im Übrigen sollen nach Erwägungsgrund 13 PHRL neu etwa die &#039;&#039;Anbieter von KI-Systemen&#039;&#039; im Sinne des AI Act als &#039;&#039;Hersteller&#039;&#039; gelten.&lt;br /&gt;
&lt;br /&gt;
=== Für KI spezifisch relevante Regelungen ===&lt;br /&gt;
Die PHRL neu enthält auch im Zusammenhang mit KI spezifisch relevante Regelungen (abseits des entsprechend konkretisierten Anwendungsbereichs). In Verbindung mit KI besonders relevant sind nach der Begründung des Richtlinienvorschlags und den Erwägungsgründen der PHRL neu folgend insbesondere bestimmte Beweiserleichterungen gemäß Artikel 10 PHRL neu und gewisse Haftungsszenarien, die sich aus Artikel 11 PHRL neu ergeben.&amp;lt;ref&amp;gt;Vgl Erwägungsgründe 40, 48 und 50 PHRL neu; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&amp;lt;u&amp;gt;spezifisch relevante Beweiserleichterungen gemäß Artikel 10 PHRL neu:&amp;lt;/u&amp;gt;&#039;&#039;&#039; Prinzipiell soll der Kläger die Fehlerhaftigkeit des Produkts, den erlittenen Schaden und den Kausalzusammenhang zwischen jener Fehlerhaftigkeit und jenem Schaden zu beweisen haben (Artikel 10 Absatz 1 PHRL neu). In Artikel 10 Absatz 4 PHRL neu sind allerdings gewisse Beweiserleichterungen insbesondere in Hinblick auf &#039;&#039;&#039;&#039;&#039;komplexe Fälle&#039;&#039;&#039;&#039;&#039; geregelt worden, zu denen nach der Begründung des Richtlinienvorschlags auch &amp;quot;&#039;&#039;bestimmte Fälle im Zusammenhang mit KI-Systemen gehören könnten&#039;&#039;&amp;quot;, was sich zudem in den Erwägungsgründen der PHRL neu widerspiegelt.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6; Erwägungsgrund 48 PHRL neu.&amp;lt;/ref&amp;gt; Voraussetzung dafür soll nunmehr einerseits sein, dass der Kläger &amp;quot;&#039;&#039;insbesondere aufgrund der technischen oder wissenschaftlichen Komplexität&amp;quot;&#039;&#039; übermäßige Schwierigkeiten damit hat, „&#039;&#039;die Fehlerhaftigkeit des Produkts oder den ursächlichen Zusammenhang zwischen dessen Fehlerhaftigkeit und dem Schaden oder beides zu beweisen&#039;&#039; [...]&amp;quot; (Artikel 10 Absatz 4 Buchstabe a PHRL neu). Andererseits müsste der Kläger nachgewiesen haben, „&#039;&#039;dass das Produkt fehlerhaft ist oder dass ein ursächlicher Zusammenhang zwischen der Fehlerhaftigkeit des Produkts und dem Schaden besteht, oder beides&#039;&#039;&amp;quot;. Zudem müssten diese Voraussetzungen trotz der Offenlegung von Beweismitteln gemäß Artikel 9 PHRL neu bzw &amp;quot;&#039;&#039;unter Berücksichtigung aller relevanten Umstände des Falles&#039;&#039;&amp;quot; vorliegen (Artikel 10 Absatz 4 PHRL neu). Erwägungsgrund 48 PHRL neu nennt als Kriterien für die &#039;&#039;&#039;technische oder wissenschaftliche Komplexität&#039;&#039;&#039; beispielsweise &amp;quot;&#039;&#039;&#039;&#039;&#039;die Komplexität der verwendeten Technologie&#039;&#039;&#039;&#039;&#039;&amp;quot; (und dabei etwa &#039;&#039;&#039;maschinelles Lernen&#039;&#039;&#039;) und die &amp;quot;&#039;&#039;&#039;&#039;&#039;die Komplexität der vom Kläger zu analysierenden Informationen und Daten und die Komplexität des ursächlichen Zusammenhang&#039;&#039;&#039;&#039;&#039;&amp;quot;&amp;lt;ref&amp;gt;Hervorhebungen jeweils hinzugefügt.&amp;lt;/ref&amp;gt;, was auch mit der potenziell geforderten &#039;&#039;&#039;&#039;&#039;Erläuterung der&#039;&#039;&#039;&#039;&#039; &#039;&#039;&#039;&#039;&#039;Funktionsweise von KI-Systemen&#039;&#039;&#039;&#039;&#039; in Verbindung gebracht wird. Die Vermutungen und Annahmen nach Artikel 10 Absätze 2-4 PHRL neu sollen schließlich gemäß dessen Absatz 5 vom Beklagten widerlegbar sein.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&amp;lt;u&amp;gt;spezifisch relevante Haftungsszenarien gemäß Artikel 11 PHRL neu:&amp;lt;/u&amp;gt;&#039;&#039;&#039; Artikel 11 PHRL neu enthält demgegenüber im Allgemeinen Regelungen darüber, wann sich jene Wirtschaftsakteure, die nach Artikel 8 PHRL prinzipiell haftbar sein sollen, jeweils von einer Haftung freibeweisen können sollen. Dies betrifft unter anderem den Fall, dass der betreffende Wirtschaftsakteur beweist, &amp;quot;&#039;&#039;dass es wahrscheinlich ist, dass die Fehlerhaftigkeit, die den Schaden verursacht hat, zum Zeitpunkt des Inverkehrbringens, der Inbetriebnahme oder — bei einem Lieferanten — des Bereitstellens auf dem Markt noch nicht bestanden hat oder dass diese Fehlerhaftigkeit erst nach dem betreffenden Zeitpunkt entstanden ist&#039;&#039;&amp;quot; (Artikel 11 Absatz 1 Buchstabe c PHRL neu). Wiederum in Bezug darauf enthält Artikel 11 Absatz 2 PHRL neu allerdings Ausnahmen, im Rahmen derer entsprechende Wirtschaftsakteure dennoch prinzipiell haftbar bleiben sollen. Diese beziehen sich darauf, dass die Fehlerhaftigkeit eines Produkts einen der Gründe hat, die in der Bestimmung genannt werden, sofern der jeweilige Grund zudem der &#039;&#039;Kontrolle des Herstellers&#039;&#039; untersteht. Die aufgezählten Ursachen umfassen unter anderem &#039;&#039;&#039;verbundene Dienste&#039;&#039;&#039; und &#039;&#039;&#039;Software&#039;&#039;&#039; (inklusive Software-Updates oder -Upgrades) sowie &#039;&#039;&#039;&#039;&#039;wesentliche Änderungen&#039;&#039;&#039;&#039;&#039; des Produkts, die wiederum im Detail in Artikel 4 Ziffer 18 PHRL neu definiert werden. Die Erwägungsgründe verweisen in Zusammenhang damit wiederum etwa auf maschinelles Lernen bzw fortlaufend lernende KI-Systeme.&amp;lt;ref&amp;gt;Vgl insbesondere Erwägungsgründe 40 und 50 PHRL neu.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Gemäß Artikel 8 Absatz 2 soll zudem im Allgemeinen &amp;quot;[j]&#039;&#039;ede natürliche oder juristische Person, die ein Produkt außerhalb der Kontrolle des Herstellers &#039;&#039;&#039;wesentlich verändert&#039;&#039;&#039; und es anschließend auf dem Markt bereitstellt oder in Betrieb nimmt&amp;quot;&#039;&#039; (Hervorhebungen hinzugefügt), in Hinblick auf die Regelung haftbarer Wirtschaftsakteure nach Artikel 8 Absatz 1 PHRL neu als entsprechender Produkthersteller gelten.&amp;lt;ref&amp;gt;Vgl zu &#039;&#039;wesentlichen Änderungen&#039;&#039; im Zusammenhang mit KI erneut insbesondere Erwägungsgrund 40 und allgemein weiterführend zudem auch 17 PHRL neu.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Sonstiges (Auswahl) ===&lt;br /&gt;
Artikel 9 PHRL neu sieht Offenlegungspflichten für bestimmte Beweismittel vor, was in Erwägungsgrund 42 PHRL neu mitunter wiederum mit (insbesondere &#039;&#039;technischer und wissenschaftlicher&#039;&#039;) &#039;&#039;&#039;Komplexität&#039;&#039;&#039; in Verbindung gebracht wird (vgl dazu schon oben). &lt;br /&gt;
&lt;br /&gt;
Gemäß Artikel 12 Absatz 1 PHRL neu sollen im Falle zweier bzw mehrerer für denselben Schaden haftbarer Wirtschaftsakteure diese prinzipiell solidarisch haftbar gemacht werden können (vgl im Detail Artikel 12 PHRL neu). Die Haftung von Wirtschaftsakteuren nach der PHRL neu soll gemäß deren Artikel 15 weiters grundsätzlich nicht vertraglich oder durch nationales Recht ausgeschlossen oder beschränkt werden können. Gemäß Artikel 12 Absatz 2 PHRL neu kann unter Umständen aber ein &#039;&#039;&#039;Haftungsrückgriff&#039;&#039;&#039; von Produktherstellern auf bestimmte Softwarekomponentenhersteller vertraglich ausgeschlossen werden.&amp;lt;ref&amp;gt;Vgl im Detail insbesondere Artikel 12 Absatz 2 Buchstabe a PHRL neu.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Synergien ==&lt;br /&gt;
&lt;br /&gt;
=== Vorschläge für AI Act, AILD und PHRL neu ===&lt;br /&gt;
&lt;br /&gt;
* Der Vorschlag für eine AILD und der Vorschlag für eine neue Produkthaftungsrichtlinie zielten prinzipiell auf verschiedene Anwendungsfälle bzw Haftungsarten ab, sollten sich als Paket jedoch dementsprechend ergänzen.&amp;lt;ref&amp;gt;Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 3; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
* Zudem waren die entsprechenden Bestrebungen der Kommission im Haftungsbereich als Paket mit dem Vorschlag für den AI Act zu sehen.&amp;lt;ref&amp;gt;Vgl darüber hinaus Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2 und 3.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== AI Act und Vorschlag AILD ===&lt;br /&gt;
&lt;br /&gt;
* Insbesondere durch die Heranziehung gewisser Begrifflichkeiten aus dem AI Act(-Vorschlag), aber auch durch die Heranziehung entsprechender Sorgfaltspflichten für die Voraussetzungen der Kausalitätsvermutung gemäß Vorschlag AILD (siehe im Detail: [[KI-Haftungsregelungen#Kausalitätsvermutung (Artikel 4)|Kausalitätsvermutung (Artikel 4)]]) hätten sich bei der AILD gegebenenfalls auch einschlägige Synergien mit dem AI Act ergeben.&lt;br /&gt;
* Umgekehrt können aus der Interpretation gewisser Anforderungen nach dem AI Act(-Vorschlag) durch den Vorschlag für die AILD auch gewisse &#039;&#039;&#039;Ansatzpunkte für die Auslegung des AI Acts&#039;&#039;&#039; gewonnen werden: Denn nach dem Vorschlag AILD sollten, um die Kausalitätsvermutung gemäß deren Artikel 4 auszulösen (wie schon oben im Detail dargestellt), prinzipiell nur Verstöße gegen solche Sorgfaltspflichten einschlägig sein, „&#039;&#039;&#039;&#039;&#039;deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern&#039;&#039;&#039;&#039;&#039;“.&amp;lt;ref&amp;gt;Vgl Erwägungsgrund 22 und Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD; Hervorhebungen hinzugefügt.&amp;lt;/ref&amp;gt; Weiters sollten dabei hinsichtlich Hochrisiko-KI-Systemen, für die gewisse Anforderungen nach dem AI Act(-Vorschlag) gelten, jedenfalls in Hinblick auf deren Anbieter bzw Personen, die Anbieter-Pflichten gemäß AI Act(-Vorschlag) unterliegen, wiederum nur bestimmte, abschließend (vgl: “&#039;&#039;nur&#039;&#039;”) aufgezählte Pflichten nach dem AI Act-Vorschlag einschlägig sein.&amp;lt;ref&amp;gt;Vgl Erwägungsgrund 26 und Artikel 4 Absatz 2 Vorschlag AILD; vgl hinsichtlich Hochrisiko-KI-Nutzern bereits oben unter [[KI-Haftungsregelungen#Kausalitätsvermutung (Artikel 4)|Kausalitätsvermutung (Artikel 4)]].&amp;lt;/ref&amp;gt; Erwägungsgrund 22 Vorschlag AILD nannte zudem explizit regulatorische Erfordernisse, die nicht auf einen Schutz vor entsprechenden Schäden abzielen sollen (was sich wohl insbesondere auch auf den AI-Act-Vorschlag beziehen sollte&amp;lt;ref&amp;gt;Denn unmittelbar davor wurde etwa die Nichteinhaltung einer Gebrauchsanweisung (vgl diesbezüglich insbesondere Art 13 und 29 Abs 1 des AI-Act-Vorschlags; nunmehr prinzipiell Art 13 und 26 Abs 1 AI Act) als potenziell einschlägig angesehen: „&#039;&#039;Somit kann diese Vermutung beispielsweise bei einem Schadensersatzanspruch aufgrund von Personenschäden gelten, wenn das Gericht feststellt, das ein Verschulden des Beklagten vorliegt, da dieser eine Gebrauchsanweisung, die eine Schädigung natürlicher Personen verhindern soll, nicht eingehalten hat.&#039;&#039;“ Dies spiegelte sich schließlich auch in Art 4 Abs 3 lit a AILD-Vorschlag wider.&amp;lt;/ref&amp;gt;), indem dieser festhielt: „&#039;&#039;Verstöße gegen Sorgfaltspflichten, deren unmittelbarer Zweck nicht darin besteht, den eingetretenen Schaden zu verhindern, führen nicht zur Geltung der Vermutung; wenn beispielsweise ein Anbieter die erforderlichen Unterlagen nicht bei den zuständigen Behörden einreicht, würde dies bei Schadensersatzansprüchen aufgrund von Personenschäden nicht zur Geltung der Vermutung führen&#039;&#039;“&amp;lt;ref&amp;gt;Vgl dazu etwa die Pflichten zur Übermittlung von Unterlagen bereits in Artikel 23 AI-Act-Vorschlag (nunmehr prinzipiell Art 21 AI Act); vgl in dem Zusammenhang allerdings auch Erwägungsgrund 25 Vorschlag AILD, der in Bezug auf einen Verstoß gegen Pflichten zur Dokumenteneinreichung oder Registrierung bei Behörden festhielt, dass diesfalls „&#039;&#039;nach vernünftigem Ermessen nicht davon ausgegangen werden, dass er das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat&#039;&#039;“, was zusätzlich auf die Voraussetzung nach Artikel 4 Absatz 1 Buchstabe b Vorschlag AILD abzgezielt haben dürfte.&amp;lt;/ref&amp;gt;. Demnach scheint die EU-Kommission im Vorschlag AILD zumindest teilweise nur manche AI Act-(Vorschlag)-Pflichten als &#039;&#039;&#039;&#039;&#039;Sorgfaltspflicht,&#039;&#039;&#039; &#039;&#039;&#039;deren unmittelbarer Zweck die Verhinderung des eingetretenen Schadens&#039;&#039;&#039; &#039;&#039;&#039;ist&#039;&#039;&#039;,&#039;&#039; interpretiert zu haben. Das könnte wiederum Auswirkungen auf die Auslegung von AI Act-Regelungen als schadenersatzbegründende &#039;&#039;&#039;Schutzgesetze&#039;&#039;&#039; im Sinne des § 1311 ABGB&amp;lt;ref&amp;gt;Vgl hierzu grundlegend &#039;&#039;Karner&#039;&#039; in &#039;&#039;Bydlinski/​Perner/​Spitzer&#039;&#039;, KBB. ABGB. Kommentar zum ABGB&amp;lt;sup&amp;gt;7&amp;lt;/sup&amp;gt; (2023) § 1294 ABGB Rz 1, 4,  § 1295 ABGB Rz 9, § 1311 ABGB Rz 3, 5.&amp;lt;/ref&amp;gt; (und damit den Schadenersatz bei Verletzung des AI Acts) haben, wobei Schutzgesetzverletzungen im Zusammenhang mit KI besondere Relevanz zukommt.&amp;lt;ref&amp;gt;Vgl dazu, insbesondere zur Schutzgesetznatur von AI Act-Regelungen und zur Bedeutung der Haftung aufgrund von Schutzgesetzverletzungen im Zusammenhang mit KI, grundlegend &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Verordnung über Künstliche Intelligenz. Kommentar (2024) Art 1 Rz 78 und folgende.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== AI Act und PHRL neu ===&lt;br /&gt;
&lt;br /&gt;
* Im Rahmen der neuen Produkthaftungsrichtlinie wurde explizit auf den AI Act Bezug genommen, indem in Erwägungsgrund 13 PHRL neu festgehalten wurde, dass &amp;quot;&#039;&#039;Entwickler oder Hersteller von Software, einschließlich der Anbieter von KI-Systemen im Sinne&#039;&#039; [...]&amp;quot; des AI Acts als &#039;&#039;Hersteller&#039;&#039; (im Sinne der PHRL neu) erachtet werden sollten. Darüber hinaus ist davon auszugehen, dass auch die Bezugnahmen auf &#039;&#039;KI-Systeme&#039;&#039; in den Erwägungsgründen der PHRL neu vermutlich im Sinne des AI Acts zu verstehen sind (siehe auch unter &#039;&#039;&#039;[[KI-Haftungsregelungen#Neuer Produktbegriff und grundlegender Regelungsgegenstand|Neuer Produktbegriff und grundlegender Regelungsgegenstand]]&#039;&#039;&#039;).&lt;br /&gt;
* Zudem handelt es sich bei den Regelungen des AI Acts wohl mitunter um Produktsicherheitsanforderungen im Sinne des Artikel 7 Absatz 2 Buchstabe f bzw Artikel 10 Absatz 2 Buchstabe b PHRL neu, die wiederum für die Beurteilung der Fehlerhaftigkeit eines KI-Systems im Rahmen der PHRL neu relevant wären.&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
Im Folgenden sollen anhand einiger vereinfachter Beispiele die Anwendbarkeit und Implikationen der hier relevanten Rechtsakte besprochen werden. Hierbei werden allerdings lediglich die als am naheliegendsten erscheinende Einordnung und Subsumption möglichst vereinfacht und verkürzt in den jeweils als am wesentlichsten erscheinenden Thesen dargestellt. Demnach könnten im Detail unter Umständen auch andere bzw weitere Ergebnisse erzielt und dargestellt werden. Die folgenden Einordnungen und Subsumption sollen demnach lediglich eine Orientierungshilfe bieten. Zudem ist erneut hervorzuheben, dass Stand Februar 2025 der Vorschlag AILD noch nicht beschlossen (bzw scheinbar verworfen) wurde und die PHRL neu noch in nationales Recht umzusetzen ist, wobei eine endgültige Beurteilung erst dann (bzw letztgültig erst ab gesicherter Judikatur) erfolgen könnte. In Hinblick auf das Zusammenspiel des Vorschlags AILD und dem AI Act(-Vorschlag) ist erneut hervorzuheben, dass sich der Vorschlag AILD auf den damals vorliegenden AI Act-Vorschlag bezogen hat, wobei allerdings einige Aspekte im Laufe des Gesetzgebungsverfahrens des AI Acts verändert wurden (siehe schon [[KI-Haftungsregelungen#Allgemeines und Anwendungsbereich|Allgemeines und Anwendungsbereich]]). &lt;br /&gt;
&lt;br /&gt;
==== Beispiel 1: KI-gestütztes Kreditscoring ====&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Das Ergebnis eines KI-Systems, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin. &lt;br /&gt;
Durch die Trainingsdaten, die dem System zugrunde lagen, wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären. &lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Es liegt ein &#039;&#039;&#039;Hochrisiko-KI-System&#039;&#039;&#039; gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Ziffer 5 Buchstabe b AI Act vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]).&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung Vorschlag AI Liability Directive&lt;br /&gt;
|In Hinblick auf die diskriminierende Trainingsdatenbasis würde gegebenenfalls insbesondere in Hinblick auf den Anbieter des Systems die &#039;&#039;&#039;Kausalitätsvermutung&#039;&#039;&#039; gemäß Artikel 4 Vorschlag AILD relevant erscheinen. Durch eine entsprechende Verletzung von (nunmehr) Artikel 10 AI Act (siehe im Detail [[Artificial Intelligence Act (AIA)#Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act)|Anforderungen an Hochrisiko-KI-Systeme]]) könnte Artikel 4 Absatz 2 Buchstabe a Vorschlag AILD erfüllt werden, wodurch eine der für Hochrisiko-KI-Anbieter taxativ aufgezählten, für die Vermutung einschlägigen Anforderungen betroffen wäre. Demnach erscheint in dem Zusammenhang insbesondere ein entsprechender Schadenersatzanspruch gegen den KI-Anbieter relevant, bei dem die Kausalitätsvermutung prinzipiell unter der Voraussetzung anwendbar wäre, dass der Kläger ein entsprechendes Verschulden des Anbieters&amp;lt;ref&amp;gt;&amp;quot;&#039;&#039;oder einer Person, für deren Verhalten der Beklagte verantwortlich ist&#039;&#039;&amp;quot; (Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD).&amp;lt;/ref&amp;gt; sowie, dass das Ergebnis des KI-Kredit-Scorings zu seinem Schaden geführt hat, nachweist, sofern weiters auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden kann, dass das Verschulden das Ergebnis des KI-Kredit-Scorings beeinflusst hat. Nach dem Sachverhalt erscheint zumindest eine Beeinflussung des Scoring-Ergebnisses durch die diskriminierenden Trainingsdaten naheliegend. &lt;br /&gt;
Die Vermutung sollte schließlich gemäß Artikel 4 Absatz 7 Vorschlag AILD widerlegt werden können.&lt;br /&gt;
Aufgrund der Einordnung als Hochrisiko-KI-System gemäß AI Act wäre prinzipiell auch die &#039;&#039;&#039;Offenlegungspflicht&#039;&#039;&#039; gemäß Artikel 3 Vorschlag AILD einschlägig. Bei entsprechender gerichtlicher Anordnung (siehe zu den Voraussetzungen im Detail unter [[KI-Haftungsregelungen#Offenlegungspflicht (Artikel 3)|Offenlegungspflicht (Artikel 3)]]) müssten demnach einschlägige Beweismittel zu dem Kredit-Scoring-System, die dem Anbieter oder dem Nutzer (/Betreiber) vorliegen, offengelegt werden. Dies würde wohl insbesondere in Bezug auf die Dokumentation, Information und Protokollierung gemäß AI Act, vor allem in Hinblick auf die Trainingsdatenbasis relevant sein (vgl insbesondere Erwägungsgründe 16, 18 und 19 Vorschlag AILD; [[Artificial Intelligence Act (AIA)#Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act)|Anforderungen an Hochrisiko-KI-Systeme]]).    &lt;br /&gt;
&lt;br /&gt;
Würden die Beweismittel trotz entsprechender gerichtlicher Anordnung nicht offengelegt, sollte ein Sorgfaltspflichtverstoß gemäß Artikel 3 Absatz 5 Vorschlag AILD auch widerlegbar vermutet werden können, was wiederum insbesondere Beweismittel betreffen sollte, die Umstände rund um die Verletzung jener AI Act-Anforderungen durch den KI-Anbieter oder -Nutzer beweisen sollen, die für die Kausalitätsvermutung nach dem Vorschlag AILD relevant sein sollten (vgl Artikel 4 Absätze 2 und 3 Vorschlag AILD). Dies wäre im gegenständlichen Fall wie dargestellt vor allem in Bezug auf den KI-Anbieter (und dessen Pflichten nunmehr gemäß Artikel 10 AI Act) von Relevanz. Diese Vermutung könnte gemäß Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD wiederum auch für die Voraussetzungen der Kausalitätsvermutung bedeutsam sein.  &lt;br /&gt;
|-&lt;br /&gt;
!Einordnung neue Produkthaftungs-RL&lt;br /&gt;
|Die PHRL neu ist bei reinen (nicht in Artikel 6 adressierten) Vermögensschäden &#039;&#039;&#039;nicht anwendbar&#039;&#039;&#039; (Artikel 6 PHRL neu e contrario; Erwägungsgründe 23 und 24 PHRL neu).&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==== Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen ====&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Chatbotassistent wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.&lt;br /&gt;
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) zu einer fehlerhaften Überweisung, indem der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.&amp;lt;ref&amp;gt;Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.&amp;lt;/ref&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Auch wenn &#039;&#039;&#039;grundsätzlich ein KI-System im Sinne des AI Act&#039;&#039;&#039; vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Artikel 5 AI Act, noch ein Hochrisiko-KI-System gemäß Artikel 6 AI Act vorliegen. &lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die &#039;&#039;&#039;Informationspflicht des Anbieters gemäß Artikel 50 Absatz 1 AI Act&#039;&#039;&#039; einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen. Nach dem Sachverhalt ist insbesondere die Rolle des Betreibers naheliegend.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung Vorschlag AI Liability Directive&lt;br /&gt;
|Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die &#039;&#039;&#039;Kausalitätsvermutung&#039;&#039;&#039; nach dem Vorschlag AILD in einschlägigen Schadenersatzverfahren (insbesondere gegen die Bank oder allenfalls den KI-Anbieter) relevant. Hierbei wäre aber in Hinblick auf den fehlerhaften Assistenz-Chatbot wohl vorrangig zu überlegen, inwieweit insbesondere ein Verschulden der Bank (als wohl jedenfalls Nutzer/Betreiber) bzw des KI-Anbieters oder einer Person vorliegt, für deren Verhalten diese jeweils verantwortlich wären. Dieses hätte im &#039;&#039;&#039;Verstoß gegen eine national- oder unionsrechtlich festgelegte Sorgfaltspflicht &#039;&#039;liegen&#039;&#039;, deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern&#039;&#039;&#039;&amp;lt;ref&amp;gt;Im Detail versteht Artikel 2 Ziffer 9 Vorschlag AILD unter &amp;quot;&#039;&#039;Sorgfaltspflicht&#039;&#039;&amp;quot; dabei &amp;quot;&#039;&#039;einen im nationalen Recht oder im Unionsrecht festgelegten Verhaltensmaßstab, der einzuhalten ist, um eine Beeinträchtigung von im nationalen Recht oder im Unionsrecht anerkannten Rechtsgütern, einschließlich Leben, körperlicher Unversehrtheit, Eigentum und Wahrung der Grundrechte, zu vermeiden&#039;&#039;&amp;quot;.&amp;lt;/ref&amp;gt; liegen müssen und in der Folge nachgewiesen werden müssen (Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD). Da kein Hochrisiko-KI-System im Sinne des AI Act vorliegt, wäre dies durch Artikel 4 Vorschlag AILD auch nicht derart (siehe etwa Beispiel 1) beschränkt gewesen.&amp;lt;ref&amp;gt;Insbesondere hält Erwägungsgrund 24 Vorschlag AILD in dem Zusammenhang fest: &amp;quot;&#039;&#039;In Bereichen, die nicht durch das Unionsrecht harmonisiert sind, gelten weiterhin nationale Rechtsvorschriften, und ein Verschulden wird nach dem geltenden nationalen Recht festgestellt&#039;&#039;&amp;quot;.&amp;lt;/ref&amp;gt; Zudem müsste die Kausalität der Übernahme der falschen Überweisungssumme für den geltend gemachten Schaden bewiesen werden (Artikel 4 Absatz 1 Buchstabe c Vorschlag AILD). Ein möglicher Schaden könnte im Beispiel wohl zumindest in den Kosten dafür bestehen, die fehlerhafte Überweisung rückgängig zu machen.&amp;lt;ref&amp;gt;Regelungen zu Begriffen wie &amp;quot;&#039;&#039;Schaden&#039;&#039;&amp;quot; sollten durch die AILD allerdings grundsätzlich unberührt bleiben; dies wäre daher insbesondere national zu beurteilen: vgl Erwägungsgrund 22 Vorschlag AILD; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.&amp;lt;/ref&amp;gt; Außerdem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass das Verschulden den beschriebenen Fehler des Chatbots beeinflusst hat (Artikel 4 Absatz 1 Buchstabe b Vorschlag AILD). Da kein Hochrisiko-KI-System vorliegt, sollte die Vermutung schließlich nur gelten, &amp;quot;&#039;&#039;wenn es nach Auffassung des nationalen Gerichts für den Kläger übermäßig schwierig ist&amp;quot;,&#039;&#039; den etwaig zu vermutenden Kausalzusammenhang zu beweisen (Artikel 4 Absatz 5 Vorschlag AILD)&#039;&#039;.&#039;&#039; Die Vermutung sollte schließlich gemäß Artikel 4 Absatz 7 Vorschlag AILD widerlegt werden können.&lt;br /&gt;
Da kein Hochrisiko-KI-System vorliegt, wäre die &#039;&#039;&#039;Offenlegungspflicht&#039;&#039;&#039; gemäß Artikel 3 Vorschlag AILD &#039;&#039;&#039;nicht anwendbar&#039;&#039;&#039;. Somit könnte auf dieser Basis auch nicht die Vorlage entsprechender Beweismittel geltend gemacht werden, was die beschriebenen Nachweise wohl erschweren würde. &lt;br /&gt;
|-&lt;br /&gt;
!Einordnung neue Produkthaftungs-RL&lt;br /&gt;
|Die PHRL neu ist bei reinen (nicht in Artikel 6 adressierten) Vermögensschäden &#039;&#039;&#039;nicht anwendbar&#039;&#039;&#039; (Artikel 6 PHRL neu e contrario; Erwägungsgründe 23 und 24 PHRL neu).&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==== Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer ====&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssystemebene bei einer bestimmten Marke privater Computer implementiert ist, wird durch eine Nutzerin eines solchen Computers aufgefordert, bestimmte Dateien (Scans von wichtigen privaten Dokumenten) zu suchen.&lt;br /&gt;
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das Assistenzsystem einzudringen, sodass dieses die Dateien stattdessen an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&amp;lt;u&amp;gt;Variante:&amp;lt;/u&amp;gt;&#039;&#039;&#039; Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses System interpretiert das Wort „&#039;&#039;Löschung&#039;&#039;“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert. &lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|&#039;&#039;&#039;Für die Nutzerin als Betreiberin&#039;&#039;&#039; liegt vermutlich die &#039;&#039;&#039;&amp;quot;Haushaltsausnahme&amp;quot;&#039;&#039;&#039; vor, wodurch der &#039;&#039;&#039;AI Act nicht zur Anwendung&#039;&#039;&#039; kommt (Artikel 2 Absatz 10 AI Act).&lt;br /&gt;
&#039;&#039;&#039;Für den Anbieter&#039;&#039;&#039;: Auch wenn prinzipiell ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich &#039;&#039;&#039;weder&#039;&#039;&#039; eine prinzipiell &#039;&#039;&#039;verbotene Praxis&#039;&#039;&#039; gemäß Artikel 5 AI Act, &#039;&#039;&#039;noch ein Hochrisiko-KI-System&#039;&#039;&#039; gemäß Artikel 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich im Sinne von Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Artikel 6 Absatz 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. &lt;br /&gt;
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die &#039;&#039;&#039;Informationspflicht des Anbieters gemäß Artikel 50 Absatz 1 AI Act&#039;&#039;&#039; einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|&#039;&#039;&#039;Transparenzpflichten&#039;&#039;&#039;]]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das &amp;quot;&#039;&#039;für die direkte Interaktion mit natürlichen Personen bestimmt&#039;&#039;&amp;quot; ist. &lt;br /&gt;
|-&lt;br /&gt;
!Einordnung Vorschlag AI Liability Directive&lt;br /&gt;
|Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die &#039;&#039;&#039;Kausalitätsvermutung&#039;&#039;&#039; nach dem Vorschlag AILD in einschlägigen Schadenersatzverfahren (wohl insbesondere gegen den KI-Anbieter)&amp;lt;ref&amp;gt;Prinzipiell könnte im Grundfall freilich auch überlegt werden, den Angreifer in Haftung zu nehmen. Allerdings wird dies wohl faktisch schwierig umzusetzen sein.&amp;lt;/ref&amp;gt; relevant. Ähnlich wie in Beispiel 2 wären dabei allerdings der Nachweis eines Verschuldens (insbesondere des Anbieters oder von Personen, für deren Verhalten dieser verantwortlich ist) sowie der Kausalität der Aktionen des Assistenzsystems für den Schaden zu erbringen und wohl fraglich. Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass ein etwaiges Verschulden die beschriebenen Aktionen des Assistenzsystems beeinflusst hat (siehe insgesamt Artikel 4 Absatz 1 Vorschlag AILD). &lt;br /&gt;
Da wiederum prinzipiell kein Hochrisiko-KI-System vorliegt, sollte die Vermutung schließlich nur gelten, &amp;quot;&#039;&#039;wenn es nach Auffassung des nationalen Gerichts für den Kläger übermäßig schwierig ist&amp;quot;,&#039;&#039; den etwaig zu vermutenden Kausalzusammenhang zu beweisen (Artikel 4 Absatz 5 Vorschlag AILD)&#039;&#039;.&#039;&#039; &lt;br /&gt;
Die Vermutung sollte schließlich gemäß Artikel 4 Absatz 7 Vorschlag AILD widerlegt werden können.&lt;br /&gt;
Die für die Kausalitätsvermutung geforderten Nachweise wären wiederum auch deswegen fraglich, weil diesfalls die &#039;&#039;&#039;Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD nicht anwendbar&#039;&#039;&#039; wäre, weil grundsätzlich kein Hochrisiko-KI-System vorliegt.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung neue Produkthaftungs-RL&lt;br /&gt;
|Die PHRL neu ist zwar bei reinen (nicht in Artikel 6 adressierten) Vermögensschäden nicht anwendbar (Artikel 6 PHRL &#039;&#039;e contrario&#039;&#039;; Erwägungsgründe 23 und 24 PHRL neu), allerdings sehr wohl auf Vermögensschäden, die sich aus der &amp;quot;&#039;&#039;Vernichtung oder Beschädigung von Daten&#039;&#039;&amp;quot; ergeben, &amp;quot;&#039;&#039;die nicht für berufliche Zwecke verwendet werden&#039;&#039;&amp;quot; (Artikel 6 Absatz 2 in Verbindung mit Absatz 1 Buchstabe c PHRL neu). Dies würde nach dem Sachverhalt grundsätzlich zutreffen, jedenfalls sofern sich aus der Löschung der Dokumentdateien ein finanzieller Schaden ergibt. Dieser wäre dann prinzipiell ersatzfähig.&lt;br /&gt;
Weiters wären gemäß Artikel 6 Absatz 2 PHRL neu aber auch entsprechende immaterielle Schäden erfasst, soweit diese nach dem nationalen Recht ersatzfähig sind, was sich nach Erwägungsgrund 23 PHRL neu insbesondere auf &#039;&#039;Schmerzen und Leid&#039;&#039; beziehen soll. Diesbezüglich ist demnach insbesondere auch die konkrete nationale Umsetzung abzuwarten.&lt;br /&gt;
&lt;br /&gt;
Bei dem Assistenzsystem handelt es sich um eine Software und damit grundsätzlich um ein &#039;&#039;Produkt&#039;&#039; im Sinne des Artikel 4 Ziffer 1 PHRL neu&amp;lt;ref&amp;gt;Prinzipiell ist in diesem Zusammenhang aber auch auf Software-as-a-Service-Modelle zu verweisen, die demnach anders zu beurteilen sein könnten.&amp;lt;/ref&amp;gt;, gleichzeitig liegt aber auch eine Komponente im Sinne des Artikel 4 Ziffer 4 PHRL neu vor (in das Betriebssystem des Computers integrierter/verbundener nicht-körperlicher Gegenstand).&amp;lt;ref&amp;gt;Vgl grundlegend Erwägungsgrund 13 PHRL neu, sowie zur Produkteigenschaft von in ein anderes Produkt integrierten Komponenten zudem Erwägungsgrund 36 PHRL neu.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
In der Folge wäre insbesondere zu überlegen, inwieweit eine Fehlerhaftigkeit des Assistenzsystems die jeweiligen Schäden verursacht hat. &lt;br /&gt;
&lt;br /&gt;
Bei der Beurteilung der Fehlerhaftigkeit von Produkten sind gemäß Artikel 7 Absatz 2 PHRL neu grundsätzlich alle Umstände einzubeziehen, was insbesondere auch einschlägige Produktsicherheitsanforderungen, einschließlich sicherheitsrelevanter Cybersicherheitsanforderungen, betrifft (Buchstabe f). Daneben sind auch andere Aspekte in Artikel 7 Absatz 2 PHRL neu genannt. Sofern der Kläger den Nachweis erbringen würde, dass das Produkt &#039;&#039;&#039;verbindliche&#039;&#039;&#039; Produktsicherheitsanforderungen des Unions- oder nationalen Rechts verletzt, die vor dem Risiko des erlittenen Schadens schützen sollen, wäre die Fehlerhaftigkeit gemäß Artikel 10 Absatz 2 Buchstabe b sogar zu vermuten. In dem Zusammenhang würden prinzipiell insbesondere Regelungen des AI Act relevant erscheinen. Da die Cybersicherheitsanforderungen gemäß Artikel 15 AI Act nur auf Hochrisiko-KI-Systeme anwendbar sind (siehe [[Artificial Intelligence Act (AIA)#Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act)|Genauigkeit, Robustheit und Cybersicherheit]]), müsste die Fehlerhaftigkeit diesfalls aber anhand anderer Aspekte bzw Überlegungen hinsichtlich der Sicherheit, die eine Person erwarten darf oder die unions- oder nationalrechtlich vorgeschrieben ist, festgestellt werden. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;&#039;&#039;&#039;Bei der&#039;&#039;&#039; &#039;&#039;&#039;Variante&#039;&#039;&#039;&amp;lt;/u&amp;gt; hingegen liegt nach dem Sachverhalt insbesondere der Schluss nahe, dass etwaig gegebene Informationspflichten gemäß Artikel 50 Absatz 1 AI Act nicht eingehalten wurden. Sofern man davon ausgeht, dass es sich dabei um verbindliche Produktsicherheitsanforderungen handelt, die vor dem Risiko entsprechender Schäden schützen sollen, und die Nutzerin eine entsprechende Verletzung nachweist, wäre die Fehlerhaftigkeit des Assistenzsystems als Produkt demnach zu vermuten. &lt;br /&gt;
&lt;br /&gt;
Prinzipiell hätte der Kläger weiters den erlittenen Schaden und den Kausalzusammenhang zwischen diesem und der Fehlerhaftigkeit des Produkts nachzuweisen (Siehe im Detail Artikel 10 PHRL neu). &lt;br /&gt;
&lt;br /&gt;
Gegebenenfalls können insbesondere Hersteller von Produkten für deren Fehlerhaftigkeit haftbar gemacht werden (Artikel 8 Absatz 1 Buchstabe a PHRL neu; vgl auch Erwägungsgrund 36 PHRL neu). Dies kann nach Erwägungsgrund 13 PHRL neu insbesondere auch der Anbieter eines KI-Systems gemäß AI Act sein. Unbeschadet dessen trifft die Haftung insbesondere auch den &amp;quot;&#039;&#039;Hersteller einer fehlerhaften Komponente, wenn diese Komponente unter der Kontrolle des Herstellers in ein Produkt integriert oder damit verbunden wurde und die Fehlerhaftigkeit dieses Produkts verursacht hat&#039;&#039;&amp;quot; (Artikel 8 Absatz 1 Buchstabe b PHRL neu). Nach dem Sachverhalt ist davon auszugehen, dass das Assistenzsystem unter der Kontrolle des Betriebssystem-Herstellers als Komponente in dieses integriert wurde, wobei das Betriebssystem als Software wiederum ein Produkt darstellen dürfte (vgl Erwägungsgrund 13 PHRL neu). Nach dem Sachverhalt ist weiters wohl davon auszugehen, dass das Betriebssystem wiederum unter der Kontrolle des Computer-Herstellers zur Komponente des Computers als wiederum eigenständiges Produkt im Sinne des Artikel 4 Ziffer 4 PHRL neu wurde. Gegebenenfalls könnte demnach jedenfalls der Anbieter des Assistenzsystems als Produkthersteller haftbar gemacht werden. Sofern das Assistenzsystem aber auch die jeweilige Fehlerhaftigkeit des Betriebssystems bzw des Computers verursacht hat, könnten gegebenenfalls auch deren Hersteller haftbar gemacht werden und unbeschadet dessen wiederum der Anbieter des Assistenzsystems als Komponentenhersteller (vgl Artikel 8 und insbesondere Erwägungsgrund 36 PHRL neu). &lt;br /&gt;
&lt;br /&gt;
Je nach den Umständen des Falles kämen aber auch noch andere Wirtschaftsakteure für eine Haftung in Frage (vgl im Detail Artikel 8 PHRL neu). &lt;br /&gt;
&lt;br /&gt;
Zwei oder mehrere für denselben Schaden haftbare Wirtschaftsakteure sollen nach Artikel 12 Absatz 1 PHRL neu prinzipiell solidarisch haftbar gemacht werden können (vgl allerdings insbesondere Absatz 2 zum unter Umständen möglichen Regress-Ausschluss). &lt;br /&gt;
&lt;br /&gt;
Die Tatsache, dass im Grundfall (auch) die Handlungen eines Angreifers zu entsprechenden Schäden geführt hat, darf die Haftung der jeweiligen Wirtschaftsakteure prinzipiell nicht mindern oder ausschließen (vgl Artikel 13 Absatz 1, Erwägungsgrund 55 PHRL neu).&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==== Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung ====&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Sachverhalt&lt;br /&gt;
|Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.&lt;br /&gt;
&lt;br /&gt;
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfarbe, weshalb das System Hautkrebs bei Personen mit dunklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt. &lt;br /&gt;
&lt;br /&gt;
Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung AI Act&lt;br /&gt;
|Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Artikel 6 Absatz 1 AI Act. &lt;br /&gt;
&lt;br /&gt;
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Artikel 10 AI Act verletzt. &lt;br /&gt;
&lt;br /&gt;
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Artikel 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.&lt;br /&gt;
|-&lt;br /&gt;
!Einordnung Vorschlag AI Liability Directive&lt;br /&gt;
|Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die &#039;&#039;&#039;Kausalitätsvermutung&#039;&#039;&#039; nach dem Vorschlag AILD in einschlägigen Schadenersatzverfahren (wohl insbesondere gegen den KI-Anbieter; unter Umständen auch gegen die Klinik als Nutzer/Betreiber) relevant. &lt;br /&gt;
In Bezug auf den KI-Anbieter wäre aber wohl vor allem zu überlegen, inwieweit in Hinblick auf die fehlerhaften Ergebnisse der KI ein Verschulden des KI-Anbieters oder einer Person vorliegt, für deren Verhalten dieser verantwortlich wäre. Dies müsste prinzipiell in der Folge nachgewiesen werden (vgl Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD; siehe auch noch im Folgenden). Dieses Verschulden müsste bei entsprechenden Anbietern von Hochrisiko-KI wiederum in der Verletzung bestimmter Anforderungen des AI Act(-Vorschlag)s begründet sein. Darunter würde gemäß Artikel 4 Absatz 2 Buchstabe a Vorschlag AILD aber prinzipiell auch das Training mit Daten fallen, die nicht entsprechenden Qualitätskriterien des AI Act(-Vorschlags) (nunmehr Artikel 10 AI Act) entsprechen.&lt;br /&gt;
Weiters müsste auch die Kausalität der fehlerhaften Diagnose bzw Therapieempfehlungen für den geltend gemachten Schaden nachgewiesen werden (vgl Artikel 4 Absatz 1 Buchstabe c Vorschlag AILD). Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass das entsprechende Verschulden den beschriebenen Fehler des KI-Systems beeinflusst hat (vgl 4 Absatz 1 Buchstabe b Vorschlag AILD). Nach dem Sachverhalt erscheint zumindest eine Beeinflussung des fehlerhaften KI-Ergebnisses durch die Trainingsdaten naheliegend. Die Vermutung sollte schließlich gemäß Artikel 4 Absatz 7 Vorschlag AILD widerlegt werden können. &lt;br /&gt;
Im Übrigen hätte das im Sachverhalt beschriebene (potenziell fehlerbehaftete) Verhalten der Ärztin die fehlerhaften Ausgaben des KI-Systems prinzipiell nicht beeinflusst, weil es schließlich erst im Nachhinein (auf Basis ebenjener KI-Ausgaben) erfolgt wäre. Dies wäre wohl wiederum insbesondere bei entsprechenden Schadenersatzforderungen gegen die Klinik als vermutlichen Nutzer (Betreiber) des KI-Systems in Hinblick auf die Kausalitätsvermutung gemäß Vorschlag AILD relevant. Ein etwaiger Verstoß gegen die Pflicht zur Verwendung des (Hochrisiko-)KI-Systems nach seiner Gebrauchsanweisung (als Verstoß gegen dabei einschlägige Sorgfaltspflichten des Nutzers/Betreibers des KI-Systems&amp;lt;ref&amp;gt;Vgl Artikel 4 Absatz 3 Buchstabe a Vorschlag AILD und weiters insbesondere insbesondere Artikeln 13 und 29 Absatz 1 des AI-Act-Vorschlags; nunmehr prinzipiell Artikeln 13 und 26 Absatz 1 AI Act.&amp;lt;/ref&amp;gt;) hätte aber wohl wiederum einen entsprechenden weiteren Ansatz in diesem Zusammenhang bieten können.&lt;br /&gt;
&lt;br /&gt;
Aufgrund der Einordnung als Hochrisiko-KI-System gemäß AI Act wäre prinzipiell auch die &#039;&#039;&#039;Offenlegungspflicht&#039;&#039;&#039; gemäß Artikel 3 Vorschlag AILD einschlägig. Bei entsprechender gerichtlicher Anordnung (siehe zu den Voraussetzungen im Detail unter [[KI-Haftungsregelungen#Offenlegungspflicht (Artikel 3)|Offenlegungspflicht (Artikel 3)]]) müssten demnach einschlägige Beweismittel zu dem Kredit-Scoring-System, die dem Anbieter oder dem Nutzer (/Betreiber) vorliegen, offengelegt werden. Dies würde wohl insbesondere in Bezug auf die Dokumentation, Information und Protokollierung gemäß AI Act, vor allem in Hinblick auf die Trainingsdatenbasis relevant sein (vgl insbesondere Erwägungsgründe 16, 18 und 19 Vorschlag AILD; [[Artificial Intelligence Act (AIA)#Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act)|Anforderungen an Hochrisiko-KI-Systeme]]). &lt;br /&gt;
&lt;br /&gt;
Würden die Beweismittel trotz entsprechender gerichtlicher Anordnung nicht offengelegt, sollte ein Sorgfaltspflichtverstoß gemäß Artikel 3 Absatz 5 Vorschlag AILD auch widerlegbar vermutet werden können, was wiederum insbesondere Beweismittel betreffen sollte, die Umstände rund um die Verletzung jener AI Act-Anforderungen durch den KI-Anbieter oder -Nutzer beweisen sollen, die für die Kausalitätsvermutung nach dem Vorschlag AILD relevant sein sollten (vgl Artikel 4 Absätze 2 und 3 Vorschlag AILD). Dies wäre im gegenständlichen Fall wie dargestellt vor allem in Bezug auf den KI-Anbieter (und dessen Pflichten nunmehr gemäß Artikel 10 AI Act) unter Umständen aber eben auch in Hinblick auf die Klinik als Nutzer von Relevanz. Diese Vermutung könnte gemäß Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD wiederum auch für die Voraussetzungen der Kausalitätsvermutung bedeutsam sein. &lt;br /&gt;
|-&lt;br /&gt;
!Einordnung neue Produkthaftungs-RL&lt;br /&gt;
|Da es sich bei dem KI-System um eine Software und damit ein &#039;&#039;Produkt&#039;&#039; im Sinne des Artikel 4 Ziffer 1 PHRL neu handelt (vgl Erwägungsgrund 13 PHRL neu), wäre die PHRL neu grundsätzlich einschlägig. &lt;br /&gt;
&lt;br /&gt;
Weiters liegt ein nach dieser prinzipiell ersatzfähiger Schaden in Form der Körperverletzung vor (Artikel 6 Absatz 1 Buchstabe a PHRL neu). &lt;br /&gt;
&lt;br /&gt;
Anschließend wäre zu überlegen, inwieweit das KI-System fehlerhaft war. Bei der Beurteilung der Fehlerhaftigkeit sind gemäß Artikel 7 Absatz 2 PHRL neu grundsätzlich alle Umstände einzubeziehen, was insbesondere auch einschlägige Produktsicherheitsanforderungen, wie wohl auch (gewisse) Regelungen des AI Act, betrifft (Buchstabe f). Sofern durch die Verletzung der Anforderungen an Trainingsdaten gemäß Artikel 10 AI Act gegen &#039;&#039;&#039;verbindliche&#039;&#039;&#039; unionsrechtliche Produktsicherheitsanforderungen verstoßen würde, die wohl durchaus vor dem Risiko des erlittenen Schadens schützen sollen&amp;lt;ref&amp;gt;Vgl insbesondere Erwägungsgrund 67 und Artikel 10 Absatz 2 Buchstabe f AI Act.&amp;lt;/ref&amp;gt;, wäre die Fehlerhaftigkeit des KI-Systems als Produkt gemäß Artikel 10 Absatz 2 Buchstabe b PHRL neu zu vermuten, wenn der Kläger diesen Verstoß nachweist.&amp;lt;ref&amp;gt;Vgl in dem Zusammenhang auch die Ausführungen zur Beweismitteloffenlegung gemäß Vorschlag AILD, die wohl auch in dem Zusammenhang relevant wäre.&amp;lt;/ref&amp;gt; Prinzipiell hätte der Kläger außerdem den erlittenen Schaden und den Kausalzusammenhang zwischen diesem und der Fehlerhaftigkeit des Produkts nachzuweisen (Siehe im Detail Artikel 10 PHRL neu). &lt;br /&gt;
&lt;br /&gt;
Gegebenenfalls wäre prinzipiell insbesondere der Anbieter des KI-Systems als Hersteller haftbar (vgl Erwägungsgrund 13 PHRL neu). Je nach den Umständen des Falles kämen aber auch andere Wirtschaftsakteure für eine Haftung in Frage (vgl im Detail Artikel 8 PHRL neu).&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Literatur ==&lt;br /&gt;
&lt;br /&gt;
=== Versionen der Produkthaftungsrichtlinie ===&lt;br /&gt;
&lt;br /&gt;
* Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final&lt;br /&gt;
&lt;br /&gt;
* Provisional Agreement Resulting From Interinstitutional Negotiations - Proposal for a directive of the European Parliament and of the Council on Liability for defective products (COM(2022)0495 – C9 0322/2022 – 2022/0302(COD))&lt;br /&gt;
&lt;br /&gt;
* Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024&lt;br /&gt;
&lt;br /&gt;
=== Fachliteratur und Ähnliches ===&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;Borges&#039;&#039;, Liability for AI Systems Under Current and Future Law - An overview of the key changes envisioned by the proposal of an EU-directive on liability for AI, Computer Law Review International 1/2023&lt;br /&gt;
* &#039;&#039;European Data Protection Supervisor&#039;&#039;, Opion 42/2023 on the Porporsals for two Directives on AI liability rules, 11. 10. 2023&lt;br /&gt;
* &#039;&#039;European Parliamentary Research Service&#039;&#039;, Artificial intelligence liability directive, PE 739.342, February 2023&lt;br /&gt;
* &#039;&#039;European Parliamentary Research Service&#039;&#039;, Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment, PE 762.861, September 2024&lt;br /&gt;
* &#039;&#039;Dötsch&#039;&#039;, Außervertragliche Haftung für Künstliche Intelligenz am Beispiel von autonomen Systemen (2023)&lt;br /&gt;
* &#039;&#039;Handig&#039;&#039;, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107&lt;br /&gt;
* &#039;&#039;Joggerst/Wendt&#039;&#039;, Die Weiterentwicklung der Produkthaftungsrichtlinie, InTeR 2021, 13&lt;br /&gt;
* &#039;&#039;Karner&#039;&#039; in &#039;&#039;Bydlinski/​Perner/​Spitzer&#039;&#039;, KBB. ABGB. Kommentar zum ABGB&amp;lt;sup&amp;gt;7&amp;lt;/sup&amp;gt; (2023) § 1294 ABGB,  § 1295 ABGB, § 1311 ABGB&lt;br /&gt;
* &#039;&#039;Larcher&#039;&#039;, Medizinprodukte-Software: Abgrenzung und Produkthaftung, rdm 2018/100, 130 &lt;br /&gt;
* &#039;&#039;Wendehorst&#039;&#039; in &#039;&#039;Martini/Wendehorst&#039;&#039;, KI-VO. Verordnung über Künstliche Intelligenz. Kommentar (2024) Art 1 &lt;br /&gt;
&lt;br /&gt;
=== Judikatur ===&lt;br /&gt;
&lt;br /&gt;
* OGH 3. 8. 2021, 8 ObA 109/20t&lt;br /&gt;
&lt;br /&gt;
=== Newsbeiträge und Ähnliches ===&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;Imco&#039;&#039;, New Product Liability Directive, https://www.europarl.europa.eu/committees/en/new-product-liability-directive/product-details/20230417CDT11482&amp;lt;nowiki/&amp;gt;(abgerufen am 21. 1. 2025)&lt;br /&gt;
* Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive (abgerufen am 26. 11. 2024)&lt;br /&gt;
* &#039;&#039;Tom Whittaker&#039;&#039;, EU AI Liability Directive: An Update, in: Burges Salmon blog, https://blog.burges-salmon.com/post/102jfdv/eu-ai-liability-directive-an-update&amp;lt;nowiki/&amp;gt;(abgerufen am 26. 11. 2024)&lt;br /&gt;
&lt;br /&gt;
=== Einzelnachweise ===&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=European_Health_Data_Space_(EHDS)&amp;diff=2592</id>
		<title>European Health Data Space (EHDS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=European_Health_Data_Space_(EHDS)&amp;diff=2592"/>
		<updated>2025-03-17T22:53:58Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Einleitung */ Tippfehler korrigiert&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2025|Nummer=|Kolisionsnummer=&amp;lt;!--Es ist keine Kollisionsnummer erforderlich--&amp;gt;|Vertrag=EU|EWR=ja|Titel=Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über den europäischen Raum für Gesundheitsdaten|Kurztitel=Europäischer Raum für Gesundheitsdaten,  European Health Data Space (EHDS)|Bezeichnung=EHDS|Rechtsmaterie=Binnenmarkt, Gesundheits- und Datenschutzrecht|Grundlage=AEUV, insbesondere {{Art.|16|AEUV|dejure|}} und  {{Art.|114|AEUV|dejure}}|DossierTyp=COD|DossierJahr=2022|DossierNummer=0140|Fundstelle=|Anzuwenden=|Gültig=vorschlagimprozess|KonsolidiertManuell=https://data.consilium.europa.eu/doc/document/PE-76-2024-REV-1/DE/pdf|GrundfassungManuell=https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex:52022PC0197}}&lt;br /&gt;
&lt;br /&gt;
== Kurzüberblick zum Europäischen Gesundheitsdatenraum ==&lt;br /&gt;
[[Datei:Quelle Grafik (Ausschnitt)- Europ Kommission, https---ec.europa.eu-commission-presscorner-detail-de-FS 24 1347.png|zentriert|mini|521x521px]]&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Kerninhalte&lt;br /&gt;
!Synergie&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|Mit dem Vorschlag werden &#039;&#039;&#039;drei Ziele&#039;&#039;&#039; verfolgt:&lt;br /&gt;
• die Gewährleistung der &#039;&#039;&#039;Primärnutzung&#039;&#039;&#039; (&amp;quot;Gesundheitsversorgung&amp;quot;) von elektronischen Gesundheitsdaten,&lt;br /&gt;
&lt;br /&gt;
• die Festlegung der &#039;&#039;&#039;Regeln&#039;&#039;&#039; für die auf dem Markt angebotenen Lösungen für &#039;&#039;&#039;Patientendatensysteme&#039;&#039;&#039; und Wellness-Apps und&lt;br /&gt;
&lt;br /&gt;
• die &#039;&#039;&#039;Sekundärnutzung&#039;&#039;&#039; (Weiternutzung von in der Gesundheitsversorgung gewonnenen Daten für Forschungszwecke etc) von elektronischen Gesundheitsdaten (unter bestimmten Bedingungen)&lt;br /&gt;
|&lt;br /&gt;
* &#039;&#039;&#039;Sachlich&#039;&#039;&#039; wird die Nutzung von &amp;quot;elektronischen Gesundheitsdaten&amp;quot; (=  personenbezogene oder nicht personenbezogene elektronische Gesundheitsdaten gem Art 2 Abs 2 lit c VO-Vorschlag) festgelegt.&lt;br /&gt;
* Der &#039;&#039;&#039;persönliche&#039;&#039;&#039; Anwendungsbereich adressiert insb Patient*innen (natürliche Personen) und Angehörige der Gesundheitsberufe sowie weitere &amp;quot;Stakeholder&amp;quot; im Gesundheitswesen, zB sogenannte &amp;quot;Gesundheitsdateninhaber&amp;quot; und &amp;quot;Gesundheitsdatennutzer&amp;quot; (Art 2 Abs 2 lit t bzw u leg cit).&lt;br /&gt;
|Mit der vorgeschlagenen EHDS-VO wird der &#039;&#039;&#039;europäische Gesundheitsdatenraum&#039;&#039;&#039; (European Health Data Space – &amp;quot;EHDS“) mit gemeinsamen Vorschriften, Standards und Infrastrukturen sowie einem Governance-Rahmen geschaffen, um den Zugang zu elektronischen Gesundheitsdaten für die Zwecke der &#039;&#039;&#039;Primärnutzung&#039;&#039;&#039; von elektronischen Gesundheitsdaten sowie der &#039;&#039;&#039;Sekundärnutzung&#039;&#039;&#039; dieser Daten zu erleichtern (Art 1 Abs 1 leg cit). Darüber hinaus werden bestimmte gemeinsame Vorschriften für Systeme für elektronische Gesundheitsaufzeichnungen (&#039;&#039;&#039;„EHR-Systeme&#039;&#039;&#039;“) festgelegt (Art 1 Abs 2 lit b leg cit).&lt;br /&gt;
|Der EHDS soll ua auch zur Vorbereitung und Reaktion auf Gesundheitsbedrohungen, zur &#039;&#039;&#039;Prävention und Bewältigung künftiger Pandemien&#039;&#039;&#039;, der Patientensicherheit, und personalisierten Medizin dienen (s ErwGr 1). Synergieeffekte sollen zB durch den Grundsatz der einmaligen Antragstellung für Gesundheitsdatennutzer geschaffen werden (s ErwGr 83).&lt;br /&gt;
|Die durch die EHDS-VO vereinfachte &#039;&#039;&#039;duale Nutzung&#039;&#039;&#039; von elektronischen Gesundheitsdaten für die Gesundheitsversorgung und die Weiterverarbeitung insb. in der Forschung soll die Gesundheitsversorgung in der EU verbessert werden, ein Binnenmarkt für digitale Gesundheitsdienste geschaffen und die Forschung im Gesundheitsbereich vorangetrieben werden.&lt;br /&gt;
Die Kommission erwartet zudem insgesamt Einsparungen von rund 11 Mrd EUR mit dem EHDS über einen Zeitraum von zehn Jahren.&amp;lt;ref&amp;gt;https://ec.europa.eu/commission/presscorner/detail/de/qanda_22_2712&amp;lt;/ref&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einleitung ==&lt;br /&gt;
Die Europäische Kommission hat 2020 in ihrer &#039;&#039;&#039;europäischen Datenstrategie&#039;&#039;&#039;&amp;lt;ref&amp;gt;Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Eine Europäische Datenstrategie, COM(2020) 66 final.&amp;lt;/ref&amp;gt; (neben ursprünglich acht weiteren Datenräumen)&amp;lt;ref&amp;gt;Derzeit wurden vierzehn Datenräume vorgeschlagen, siehe &#039;&#039;Council of the European Union&#039;&#039;, Commission Staff Document on Common European Data Spaces, https://data.consilium.europa.eu/doc/document/ST-5855-2024-INIT/en/pdf (Stand 26. 1. 2024).&amp;lt;/ref&amp;gt; die Einrichtung eines &#039;&#039;&#039;Europäischen Gesundheitsdatenraumes&#039;&#039;&#039; (European Health Data Space, „&#039;&#039;&#039;EHDS&#039;&#039;&#039;“) vorgeschlagen. Der europäische Raum für Gesundheitsdaten ist der erste Vorschlag für einen solchen bereichsspezifischen gemeinsamen europäischen Datenraum. Datenräume sind laut Europäischer Kommission (vertikale) sektorspezifische Regelungen&#039;&#039;&#039;,&#039;&#039;&#039; die als einheitliches Ziel einen &#039;&#039;&#039;&amp;quot;genuine single market for data“&#039;&#039;&#039; vorsehen. Dieser Binnenmarkt für Daten soll vor allem zu einer Schaffung großer Datenpools in bestimmten Sektoren (wie der Gesundheit) und einem verbesserter Datenzugang für die Entwicklung neuer datengestützter Dienste und Anwendungen (auch für das Training von foundation models [inzwischen im AI Act general purpose AI models], &amp;quot;GenAI&amp;quot;) führen. Der EHDS soll die horizontalen Rechtsakte, wie insbesondere die Datenschutz-Grundverordnung (DSGVO),&amp;lt;ref&amp;gt;Wie aus der Studie zur Bewertung der Vorschriften der EU-Mitgliedstaaten zu Gesundheitsdaten vor dem Hintergrund der DSGVO hervorgeht, führt die uneinheitliche Umsetzung und Auslegung der DSGVO durch die Mitgliedstaaten zu erheblichen Rechtsunsicherheiten und damit zu Hindernissen für die Sekundärnutzung elektronischer Gesundheitsdaten, siehe die Begründung des EHDS-VVO-Vorschlag durch die Europäische Kommission, COM/2022/197 final 1 (unter Verweis auf Europäische Kommission, Assessment of the EU Member States’ rules on health data in the light of the GDPR, 2021).&amp;lt;/ref&amp;gt; den [[Data Governance Act (DGA)|Data Governance Act]] (DGA) und den [[Data Act (DA)|Data Act]] (DA), ergänzen bzw. präzisieren und sieht maßgeschneiderte Vorschriften für das &#039;&#039;&#039;Gesundheitswesen&#039;&#039;&#039; vor.&lt;br /&gt;
&lt;br /&gt;
Laut Europäischer Kommission ist der europäische Raum für Gesundheitsdaten ein gesundheitsspezifisches &#039;&#039;&#039;Ökosystem&#039;&#039;&#039;, das aus Vorschriften, gemeinsamen Standards und Verfahren, Infrastrukturen und einem Governance-Rahmen besteht, der auf Folgendes abzielt:&amp;lt;ref&amp;gt;Vgl Mitteilung der Kommission an das Europäische Parlament und den Rat, Ein europäischer Raum für Gesundheitsdaten: Das Potenzial von Gesundheitsdaten für die Allgemeinheit, für Patientinnen und Patienten und für Innovation erschließen, COM(2022) 196 final 10 f.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
a) Stärkung der Handlungskompetenz der Einzelpersonen durch Verstärkung des &#039;&#039;&#039;digitalen Zugangs&#039;&#039;&#039; zu ihren personenbezogenen elektronischen Gesundheitsdaten und ihrer Kontrolle darüber sowie durch Unterstützung ihres freien Datenverkehrs&lt;br /&gt;
&lt;br /&gt;
b) Förderung eines echten &#039;&#039;&#039;Binnenmarkts&#039;&#039;&#039; für Systeme für elektronische Patientenakten, relevante Medizinprodukte und Hochrisiko-KI-Systeme&lt;br /&gt;
&lt;br /&gt;
c) Schaffung eines kohärenten, vertrauenswürdigen und effizienten Umfelds für die &#039;&#039;&#039;Nutzung von Gesundheitsdaten&#039;&#039;&#039; für Forschung, Innovation, Politikgestaltung und Regulierungstätigkeiten &lt;br /&gt;
&lt;br /&gt;
Die Europäische Kommission hat den EHDS-Entwurf in Form einer Verordnungsvorschlags 2022 vorgelegt&amp;lt;ref&amp;gt;COM/2022/197 final, https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:52022PC0197&amp;lt;/ref&amp;gt; - als bislang einzigen formalen Rechtsakt unter den dreizehn anderen Datenräumen. Dies ist laut Kommission darin begründet, dass die Covid-19-Epidemie die Dringlichkeit eines funktionierenden Datenzugangs und -austausches auf europäischer Ebene aufgezeigt hat und zahlreiche Öffnungsklauseln der DSGVO sowie die uneinheitliche Umsetzung durch die MS zu erheblichen Rechtsunsicherheiten und damit Hindernissen für die &#039;&#039;&#039;Sekundärnutzung&#039;&#039;&#039; personenbezogener elektronischer Gesundheitsdaten geführt haben. Daher sehe der EHDS-E ua einen &#039;&#039;&#039;gemeinsamen Rahmen für die Sekundärnutzung&#039;&#039;&#039; elektronischer Gesundheitsdaten vor, der Fragmentierung der und die Hindernisse für den grenzüberschreitenden Zugang verringern soll.&lt;br /&gt;
&lt;br /&gt;
=== Status des Verordnungsvorschlags ===&lt;br /&gt;
Der Vorschlag der Europäischen Kommission zum Europäischen Gesundheitsdatenraum wurde am 3. 5. 2022 veröffentlicht.&amp;lt;ref&amp;gt;COM(2022) 197 final&amp;lt;/ref&amp;gt; Nach Verhandlungen haben sich die MS der Europäischen Union im Rat am 6. Dezember 2023 auf eine gemeinsame Position zum EHDS-Verordnungsvorschlag geeinigt.&amp;lt;ref&amp;gt;&#039;&#039;General Secretariat of the Council&#039;&#039;, Proposal for a Regulation on the European Health Data Space. Mandate for negotiations with the European Parliament 16048/1/23 REV1, https://data.consilium.europa.eu/doc/document/ST-16048-2023-REV-1/en/pdf.&amp;lt;/ref&amp;gt; Diese Einigung bildete die Grundlage für die Verhandlungen über den EHDS-Entwurf mit dem Europäischen Parlament und der Europäischen Kommission (&amp;lt;abbr&amp;gt;sog&amp;lt;/abbr&amp;gt; „Trilog“) dar. Darauf folgte am am 14. März 2024 eine Einigung zwischen Rat der Europäischen Union, dem Europäischen Parlament und der Europäischen Kommission auf einen gemeinsamen Kompromisstext.&amp;lt;ref&amp;gt;&#039;&#039;General Secretariat of the Council&#039;&#039;, Proposal for a Regulation on the European Health Data Space. Analysis of the final compromise text with a view to agreement 7553/24, https://www.consilium.europa.eu/media/70909/st07553-en24.pdf.&amp;lt;/ref&amp;gt; Das Europäische Parlament hat daraufhin den Text am 24. April 2024 (noch ohne Überarbeitung durch die Rechts- und Sprachsachverständigen) in erster Lesung beschlossen,&amp;lt;ref&amp;gt;Standpunkt des Europäischen Parlaments festgelegt in erster Lesung am 24. April 2024 im Hinblick auf den Erlass der Verordnung (EU) 2024/... des Europäischen Parlaments und des Rates über den europäischen Raum für Gesundheitsdaten, https://www.europarl.europa.eu/doceo/document/TA-9-2024-0331_DE.pdf&amp;lt;/ref&amp;gt; &amp;lt;ref&amp;gt;Siehe zu diesem Vorgehen den Vermerk &#039;&#039;Generalsekretariat des Rates&#039;&#039;, Vorschläge im Rahmen des ordentlichen Gesetzgebungsverfahrens, die voraussichtlich Gegenstand des Berichtigungsverfahrens des Europäischen Parlaments sein werden (Teil I),  https://data.consilium.europa.eu/doc/document/ST-10078-2024-INIT/de/pdf (Stand 18. 6. 2024).&amp;lt;/ref&amp;gt; bevor der (in der Zwischenzeit redaktionell bereinigte und sprachjuristisch geprüfte) VO-Vorschlag auch vom Rat am 21. Jänner 2025 angenommen wurde.&amp;lt;ref&amp;gt;Rat der Europäischen Union, Pressemitteilung vom 21.1.2025, https://www.consilium.europa.eu/de/press/press-releases/2025/01/21/european-health-data-space-council-adopts-new-regulation-improving-cross-border-access-to-eu-health-data/&amp;lt;/ref&amp;gt; Nach der Unterzeichnung durch die Präsidentin des Europäischen Parlaments und des Präsidenten des Rates am 11. 2. bzw 12. 2. 2025&amp;lt;ref&amp;gt;https://law-tracker.europa.eu/procedure/2022_140&amp;lt;/ref&amp;gt; erfolgt demnächst die Kundmachung der EHDS-VO im Amtsblatt der EU.&lt;br /&gt;
&lt;br /&gt;
=== Zeitlicher Anwendungsbereich ===&lt;br /&gt;
In Art 105 EHDS-VO-Vorschlag ist ein Inkrafttreten am zwanzigsten Tag nach der Veröffentlichung der Verordnung im Amtsblatt der Europäischen Union vorgesehen. Anzuwenden ist die VO grundsätzlich 2 Jahre nach Inkrafttreten, wobei jedoch bestimmte Artikel erst nach vier, sechs bzw. zehn Jahren nach dem Inkrafttreten in Geltung treten.&lt;br /&gt;
&lt;br /&gt;
== Zentrale Inhalte ==&lt;br /&gt;
&lt;br /&gt;
=== Primärnutzung elektronischer Gesundheitsdaten ===&lt;br /&gt;
Kapitel II (Art 3 ff  EHDS-VO-Vorschlag) enthält Regelungen zur &#039;&#039;&#039;Primärnutzung&#039;&#039;&#039; elektronischer Gesundheitsdaten. Als &amp;quot;Primärnutzung&amp;quot; wird in Art 2 Abs 2 lit d leg cit &amp;quot;die Verarbeitung elektronischer Gesundheitsdaten für die &#039;&#039;&#039;Erbringung von Gesundheitsdienstleistungen&#039;&#039;&#039; zur Beurteilung, Erhaltung oder Wiederherstellung des Gesundheitszustands der natürlichen Person, auf die sich die Daten beziehen [...]&amp;quot; definiert. Kapitel II räumt den betroffenen Personen (natürlichen Personen) &#039;&#039;&#039;Rechte&#039;&#039;&#039; hinsichtlich der Primärnutzung ihrer personenbezogenen elektronischen Gesundheitsdaten ein (Recht auf Zugang; Recht auf Eingabe von Informationen in die elektronische Gesundheitsaufzeichnung - electronic health record, EHR; Recht auf Berichtigung; Recht auf Datenübertragbarkeit; Recht auf Beschränkung des Zugangs; Recht auf Auskunft über den Zugriff auf Daten; Recht zum Widerspruch im Rahmen der Primärnutzung). &lt;br /&gt;
&lt;br /&gt;
=== Sekundärnutzung elektronischer Gesundheitsdaten ===&lt;br /&gt;
Der EHDS-VO-Vorschlag regelt in Kapitel IV (Art 50 ff) die &#039;&#039;&#039;Sekundärnutzung&#039;&#039;&#039; von Gesundheitsdaten für Forschung, Innovation, Politikgestaltung und regulatorische Zwecke. Laut Legaldefinition in Art 2 Abs 2 lit e bezeichnet der &#039;&#039;&#039;Begriff der Sekundärnutzung&#039;&#039;&#039; dabei &amp;quot;die Verarbeitung elektronischer Gesundheitsdaten für die in Kapitel IV der vorliegenden Verordnung genannten Zwecke, sofern es sich nicht um die Zwecke handelt, für die sie ursprünglich erhoben oder erstellt wurden&amp;quot;. Als &#039;&#039;&#039;Zwecke&#039;&#039;&#039;, für die elektronische Gesundheitsdaten zur Sekundärnutzung verarbeitet werden können, normiert Art 53 die folgenden:   &lt;br /&gt;
&lt;br /&gt;
* öffentliches Interesse im Bereich der &#039;&#039;&#039;öffentlichen Gesundheit und der Gesundheit am Arbeitsplatz&#039;&#039;&#039;;&lt;br /&gt;
* &#039;&#039;&#039;Politikgestaltung&#039;&#039;&#039; und &#039;&#039;&#039;Regulierungstätigkeiten&#039;&#039;&#039; zur Unterstützung von öffentlichen Stellen;&lt;br /&gt;
* &#039;&#039;&#039;Statistiken&#039;&#039;&#039;, wie nationale, multinationale und unionsweite amtliche Statistiken im  Sinne der Verordnung (EU) 223/2009 über den Gesundheits- oder  Pflegesektor;&lt;br /&gt;
* &#039;&#039;&#039;Bildungs- oder Lehrtätigkeiten&#039;&#039;&#039; im Gesundheits- oder Pflegebereich auf der Ebene der Berufs- oder Hochschulbildung;   &lt;br /&gt;
* &#039;&#039;&#039;wissenschaftliche Forschung im Bereich des Gesundheits- oder Pflegesektors&#039;&#039;&#039;, die zur öffentlichen Gesundheit oder zur Bewertung von Gesundheitstechnologien beiträgt oder ein hohes Maß an Qualität und Sicherheit der Gesundheitsversorgung, von Arzneimitteln oder Medizinprodukten sicherstellt, mit dem Ziel, Endnutzern wie Patienten, Angehörigen der Gesundheitsberufe und Gesundheitsverwaltungen  zugutezukommen, einschließlich  Entwicklungs- und Innovationstätigkeiten für Produkte oder  Dienstleistungen; Training, Erprobung und Bewertung von Algorithmen, auch in  Medizinprodukten, In-vitro-Diagnostika, KI-Systemen und digitalen  Gesundheitsanwendungen;   &lt;br /&gt;
* Verbesserung der &#039;&#039;&#039;Pflege&#039;&#039;&#039;, Optimierung der &#039;&#039;&#039;Behandlung&#039;&#039;&#039; und &#039;&#039;&#039;Gesundheitsversorgung&#039;&#039;&#039; auf der Grundlage der elektronischen Gesundheitsdaten.&lt;br /&gt;
&lt;br /&gt;
Zum Schutz der Privatsphäre und insbesondere In Anwendung des Grundsatzes der Datenminimierung gem Art 5 Abs 1 lit c DSGVO geht der EHDS-VO-Vorschlag grundsätzlich von einer Nutzung &#039;&#039;&#039;anonymisierter oder pseudonymisierter Gesundheitsdaten&#039;&#039;&#039; aus. Daher sollen in allen Fällen, in denen dies ausreicht, nicht personenbezogene (anonymisierte) elektronische Gesundheitsdaten zur Verfügung gestellt werden. Wenn der Datennutzer personenbezogene elektronische Gesundheitsdaten verwenden muss, ist dies zu begründen und von der Stelle für den Zugang zu Gesundheitsdaten zu überprüfen - selbst in einem solchen Fall sollten personenbezogene elektronische Gesundheitsdaten nur in pseudonymisiertem Form zur Verfügung gestellt werden. Die Pseudonymisierung und Anonymisierung kann dabei laut ErwGr 72 von den Zugangsstellen für Gesundheitsdaten oder von den Inhabern von Gesundheitsdaten vorgenommen werden. &lt;br /&gt;
&lt;br /&gt;
==== Ablauf der Sekundärnutzung von Gesundheitsdaten ====&lt;br /&gt;
[[Datei:M. Löffler, Ablauf Sekundärnutzung von Gesundheitsdaten nach dem EHDS.png|mini|&#039;&#039;&#039;Ablauf Sekundärnutzung von Gesundheitsdaten&#039;&#039;&#039;|384x384px]]&lt;br /&gt;
Der Prozess zur Sekundärdatennutzung umfasst überblicksartig folgende Schritte (siehe auch das Ablaufdiagramm):  &lt;br /&gt;
&lt;br /&gt;
1. &#039;&#039;&#039;Antragstellung&#039;&#039;&#039; durch Datenverwender: Forschende, politische Entscheidungsträger oder Innovatoren, die Gesundheitsdaten nutzen möchten, stellen einen Antrag bei der zuständigen nationalen Gesundheitsdatenzugangsstelle.&lt;br /&gt;
&lt;br /&gt;
2. &#039;&#039;&#039;Prüfung&#039;&#039;&#039; des Antrags: Die Gesundheitsdatenzugangsstelle bewertet den Antrag hinsichtlich der Einhaltung der festgelegten Zwecke und der Datenschutzbestimmungen.&lt;br /&gt;
&lt;br /&gt;
3. Erteilung einer &#039;&#039;&#039;Datenzugangsgenehmigung&#039;&#039;&#039;: Bei positiver Bewertung wird eine Genehmigung erteilt, die den Zugang zu den erforderlichen Gesundheitsdaten unter strengen Bedingungen erlaubt.&lt;br /&gt;
&lt;br /&gt;
4. &#039;&#039;&#039;Datenzugriff&#039;&#039;&#039; in sicheren Verarbeitungsumgebungen: Die genehmigten Datenverwender greifen auf die Gesundheitsdaten in speziell gesicherten Verarbeitungsumgebungen zu, die den Datenschutz gewährleisten.&lt;br /&gt;
&lt;br /&gt;
5. &#039;&#039;&#039;Verarbeitung&#039;&#039;&#039; und Analyse der Daten: Innerhalb dieser sicheren Umgebung werden die Daten für die genehmigten Zwecke verarbeitet und analysiert.&lt;br /&gt;
&lt;br /&gt;
6. &#039;&#039;&#039;Ergebnisse&#039;&#039;&#039;: Die gewonnenen Erkenntnisse werden genutzt, um die Forschung voranzutreiben, politische Entscheidungen zu unterstützen oder neue Gesundheitslösungen zu entwickeln.&lt;br /&gt;
&lt;br /&gt;
==== Widerspruch (&amp;quot;Opt-out&amp;quot;) ====&lt;br /&gt;
Natürlichen Personen (idR Patient*innen) steht gem Art 71 Abs 1 EHDS-VO-Vorschlag das Recht auf jederzeitigen und begründungslosen &#039;&#039;&#039;Widerspruch&#039;&#039;&#039; gegen die Bereitstellung ihrer personenbezogenen elektronischen Gesundheitsdaten für die Sekundärnutzung zu. Dies bewirkt, dass ab Ausübung des Widerspruchs (identifizierbare) elektronische Gesundheitsdaten des Widersprechenden nicht durch nachfolgende Datengenehmigungen gem Art 68 oder Datenanfragen gem Artikel 69 zur Verfügung gestellt werden dürfen.&lt;br /&gt;
&lt;br /&gt;
Allerdings existiert dazu eine (beschränkte) &#039;&#039;&#039;Gegenausnahme&#039;&#039;&#039;, d.h. dass es - trotz aufrechtem Widerspruch - zur Sekundärdatennutzung für bestimmte Zwecke, die in engem Zusammenhang mit dem öffentlichen Interesse stehen, kommen kann (laut ErwGr 54 soll dies bspw bei Tätigkeiten zum Schutz vor schwerwiegenden grenzüberschreitenden Gesundheitsgefahren oder wissenschaftliche Forschung aus wichtigen Gründen des öffentlichen Interesses vorliegen). Die MS werden durch Art 71 Abs 4 ermächtigt, dafür einen eingeschränkten Mechanismus für den Datenzugang einzurichten.&lt;br /&gt;
&lt;br /&gt;
== Fallbeispiele ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
|&#039;&#039;&#039;Use cases&#039;&#039;&#039;&lt;br /&gt;
|&#039;&#039;&#039;Beispiel 1&#039;&#039;&#039;: Eine in Portugal lebende Frau fährt nach Frankreich in Urlaub. Leider erkrankt sie in Frankreich und muss vor Ort eine Hausarztpraxis aufsuchen. Dank EHDS und MyHealth@EU kann auf dem Praxiscomputer in Frankreich die Krankengeschichte dieser Patientin in französischer Sprache abgerufen werden (unterstützt durch Übersetzungsfunktionen). Infolgedessen kann das notwendige Arzneimittel auf der Grundlage der Krankengeschichte der Patientin verschrieben werden und z. B. können Medikamente vermieden werden, auf die die Patientin allergisch ist. Die Verschreibungsinformationen können ebenfalls ausgetauscht werden, damit sie zu Hause in Portugal oder überall in der Union verwendet werden können.&lt;br /&gt;
&#039;&#039;&#039;Beispiel 2&#039;&#039;&#039;: Ein Gesundheitstechnologieunternehmen entwickelt ein neues KI-basiertes Instrument zur medizinischen Entscheidungsfindung, das Ärzten dabei hilft, nach einer Überprüfung der Laborbilder des Patienten Diagnose- und Behandlungsentscheidungen zu treffen. Die KI vergleicht die Bilder des Patienten mit denen vieler früherer Patienten. Durch den EHDS kann das Unternehmen einen effizienten und sicheren Zugang zu einer großen Zahl medizinischer Bilder bekommen, um den KI-Algorithmus zu trainieren und seine Genauigkeit und Wirksamkeit zu optimieren, bevor es eine Marktzulassung beantragt.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Beispiel 3&#039;&#039;&#039;: Ein Mann hat ein medizinisches Bild seiner Lunge, das im öffentlichen Krankenhaus gemacht wurde, in das er vom Notfallteam gebracht wurde. Kurz danach sucht er seinen behandelnden Arzt in einem anderen Krankenhaus auf. Dank des EHDS kann sein Arzt das medizinische Bild aus dem anderen Krankenhaus sehen, wodurch eine neue, unnötige Untersuchung vermieden wird.&lt;br /&gt;
&lt;br /&gt;
Quelle: Europ. Kommission, https://ec.europa.eu/commission/presscorner/detail/de/QANDA_24_2251 &lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Literatur &amp;amp; Links ==&lt;br /&gt;
&lt;br /&gt;
=== Literatur ===&lt;br /&gt;
&lt;br /&gt;
*&#039;&#039;Aigner/Bachinger/Bathke/Bergthaler/Bock/Czypionka/Degelsegger-Marquez/Haslacher/Klimek/Langs/Oberhofer/Ostermann/Prainsack/Strassnig/Thomas/Thurner&#039;&#039;, Grundlagenpapier zur Schaffung des österreichischen Gesundheitsdatenraumes (2023), https://ierm.univie.ac.at/fileadmin/user_upload/i_ierm/Varanstaltungen/WP_12_-_Aigner_et_al._-_Grundlagenpapier_zur_Schaffung_des_oesterreichischen_Gesundheitsdatenraumes.pdf.&lt;br /&gt;
*&#039;&#039;Becker/Chokoshvili/Dove&#039;&#039;, Legal bases for effective secondary use of health and genetic data in the EU. Time for new legislative solutions to better harmonize data for cross-border sharing? IDPL 2024, 223.&lt;br /&gt;
*&#039;&#039;Gabauer&#039;&#039;, Sekundärnutzung von elektronischen Gesundheitsdaten auf Grundlage des Entwurfs einer Verordnung über den Europäischen Raum für Gesundheitsdaten (EHDS), in FS Jahnel (2025), im Erscheinen.&lt;br /&gt;
*&#039;&#039;Gassner&#039;&#039;, Sekundärnutzung von Gesundheitsdaten für die kommerzielle Medizinprodukteforschung, MPR 2024, 95.&lt;br /&gt;
*&#039;&#039;Kuss/Moers&#039;&#039;, Die Europäische und nationale Datenstrategie im Gesundheitswesen am Beispiel des European Health Data Space und des Gesundheitsdatennutzungsgesetzes: Ein Durchbruch für die Forschung?, in  &#039;&#039;Hoffberger-Pippan/Ladeck/Ivankovics&#039;&#039; (Hrsg), Jahrbuch Digitalisierung 2024 (2024) 342.&lt;br /&gt;
*&#039;&#039;Löffler/Kastelitz&#039;&#039;, Was ist der Europäische Raum für Gesundheitsdaten (EHDS)? Dako 2023, 79.&lt;br /&gt;
*&#039;&#039;Quinn/Ellyne/Yao&#039;&#039;, Will the GDPR Restrain Health Data Access Bodies Under the European Health Data Space (EHDS)? Computer Law &amp;amp; Security Review 2024, 105993.&lt;br /&gt;
*&#039;&#039;Raji&#039;&#039;, Datenräume in der Europäischen Datenstrategie am Beispiel des European Health Data Space, ZD 2023, 3.&lt;br /&gt;
*&#039;&#039;Werry/Ntanas&#039;&#039;, Sekundärnutzung von Gesundheitsdaten - Quid deinde? MMR 2024, 641.&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
&lt;br /&gt;
*&#039;&#039;European Commission&#039;&#039;, Assessment of the EU Member States’ rules on health data in the light of GDPR, https://health.ec.europa.eu/publications/assessment-eu-member-states-rules-health-data-light-gdpr_en?prefLang=de.&lt;br /&gt;
*&#039;&#039;European Commission&#039;&#039;, Impact Assessment on the European Health Data Space, https://health.ec.europa.eu/publications/impact-assessment-european-health-data-space_en?prefLang=de. &lt;br /&gt;
*&#039;&#039;European Commission&#039;&#039;, Study supporting the impact assessment of policy options for an EU initiative on a European health data space (2022), https://op.europa.eu/en/publication-detail/-/publication/fb9c0bdd-ca8d-11ec-b6f4-01aa75ed71a1/language-en.&lt;br /&gt;
*European Commission, Study on health data, digital health and artificial intelligence in healthcare (2022), https://health.ec.europa.eu/publications/study-health-data-digital-health-and-artificial-intelligence-healthcare_en?prefLang=de.&lt;br /&gt;
*&#039;&#039;Europäische Kommission&#039;&#039;, Europäischer Raum für Gesundheitsdaten (EHDS), https://health.ec.europa.eu/ehealth-digital-health-and-care/european-health-data-space_de. &lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Digitale_Dienste_und_M%C3%A4rkte&amp;diff=2093</id>
		<title>Digitale Dienste und Märkte</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Digitale_Dienste_und_M%C3%A4rkte&amp;diff=2093"/>
		<updated>2025-01-25T09:50:56Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Hintergrund */ bei eIDAS die Entwicklung 2014-&amp;gt;2024 ergänzt, vor allem, da es mir wichtig erschien, klarzustellen, dass eIDAS nicht etwas völlig Neues ist.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Rechtsakte ==&lt;br /&gt;
* [[Digital Markets Act (DMA)]]&lt;br /&gt;
* [[Digital Services Act (DSA)]]&lt;br /&gt;
* [[Regulation on electronic identification and trust services (eIDAS)]]&lt;br /&gt;
* [[Ecodesign|Ecodesign Regulation]]&lt;br /&gt;
&lt;br /&gt;
== Hintergrund ==&lt;br /&gt;
[[Datei:DG Connect Bubbles NEW2 Pyramid isdHMwbjXGHTRyqe93KV1bpxwA 82713.png|links|mini|400x400px|Die Digitale Dekade 2030 der Europäischen Union (c) Europäische Kommission&amp;lt;ref&amp;gt;https://digital-strategy.ec.europa.eu/de/policies/europes-digital-decade&amp;lt;/ref&amp;gt;]]&lt;br /&gt;
In Anbetracht des durch den fortschreitenden technologischen Fortschritt eingeleiteten digitalen Wandels, der Menschen, Unternehmen und die Gesellschaft im Allgemeinen betrifft, veröffentlichte die Europäische Union (EU) am 19. Februar 2020 ein umfassendes [https://eur-lex.europa.eu/legal-content/DE/TXT/PDF/?uri=CELEX:52020DC0067 Konzeptpapier zu einer europäischen &#039;&#039;&#039;Digitalstrategie&#039;&#039;&#039;].&amp;lt;ref&amp;gt;Mehr Informationen zur europäischen Digitalstrategie sind auf folgenden Webseiten zu finden: https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age_de und https://digital-strategy.ec.europa.eu/en.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Vgl. &#039;&#039;Schreiber/Pommerening/Schoel&#039;&#039;, Der neue Data Act mit Data Governance Act (2024).&amp;lt;/ref&amp;gt; Dadurch sollen die digitale Souveränität der Union ausgebaut, eigene Standards gesetzt, Recht vereinheitlicht, Innovation gefördert, klare Zuständigkeiten festgelegt und Grund- und Menschenrechte geschützt werden. Der Schwerpunkt der europäischen Digitalstrategie liegt dabei auf Daten, Technologie und Infrastruktur, wobei sich die EU an folgenden Hauptzielen orientiert:&lt;br /&gt;
&lt;br /&gt;
* Entwicklung und Einsatz von vertrauenswürdiger Technologie im Dienste des Menschen&lt;br /&gt;
* Förderung einer fairen und wettbewerbsfähigen Wirtschaft im Binnenmarkt&lt;br /&gt;
* Gebrauch von digitalen Technologien, die einer offenen, demokratischen und nachhaltigen Gesellschaft zuträglich sind.&amp;lt;ref&amp;gt;Mehr Informationen sind dem Konzeptpapier der EU-Digitalstrategie zu entnehmen: https://eur-lex.europa.eu/legal-content/DE/TXT/PDF/?uri=CELEX:52020DC0067. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Einen bedeutenden Teil der digitalen Infrastruktur nehmen Dienste der Informationsgesellschaft und darunter vor allem Online-Plattformen ein, da diese inzwischen täglich genutzt werden und damit aus dem europäischen Raum nicht mehr wegzudenken sind. Im Fokus stehen &#039;&#039;&#039;digitale Dienste&#039;&#039;&#039;, die eine große Kategorie von Online-Diensten umfassen, und von einfachen Websites über Cloud-Dienste und Online-Marktplätze bis hin zu großen social media Plattformen reichen. Der EU-Gesetzgeber erkennt die gesellschaftliche Relevanz dieser Dienste zwar an, möchte jedoch die sich durch den digitalen Wandel und die verstärkte Nutzung solcher Online-Plattformen herauskristallisierenden neuen Risiken und Herausforderungen adressieren.&amp;lt;ref&amp;gt;Vgl. &#039;&#039;Steinrötter&#039;&#039; (Hrsg), Europäische Plattformregulierung. DSA | DMA | P2B-VO | DGA | DA | AI Act | DSM-RL (2023).&amp;lt;/ref&amp;gt; Denn neben Vorteilen, wie einer niederschwelligen Kommunikation oder eines erleichterten grenzüberschreitenden Handels, werden digitale Dienste auch zunehmend missbraucht, um illegale Waren und Dienstleistungen auszutauschen, rechtswidrige Inhalte zu verbreiten oder die marktbeherrschende Stellung von bestimmten Unternehmen zu Lasten von kleineren Unternehmen oder Startups zu festigen. [[Datei:Paket zum Gesetz über digitale Dienste der Europäischen Kommission .png|mini|400x400px|Paket zum Gesetz über digitale Dienste der Europäischen Kommission -Research Institute [https://creativecommons.org/licenses/by/4.0/deed.de CC BY 4.0]]]Mit dem sogenannten &#039;&#039;&#039;„Paket zum Gesetz über Digitale Dienste der Europäischen Kommission“&#039;&#039;&#039; (im Folgenden: „Paket über digitale Dienste“) trägt die EU der Tatsache Rechnung, dass der digitale Raum im Hinblick auf diese Risiken reguliert werden muss und nimmt dabei folgende Blickwinkel ein: einerseits die Perspektive der Internetnutzenden, deren Grundrechte im digitalen Raum geschützt werden sollen und deren Zugang zu (rechts-)sicheren Waren, Dienstleistungen und Inhalten gewährleistet werden soll. Andererseits möchte die Union Innovation und Wachstum fördern, weshalb ein Raum geschaffen werden soll, in dem digitale Unternehmen gedeihen können. Hier rücken insbesondere kleinere gewerbliche Nutzer bzw. Startups in den Fokus, die gegenüber den großen marktbeherrschenden Unternehmen keine Wettbewerbsnachteile erleiden sollen. Zuletzt nimmt die EU die „Big Player“ in die Pflicht, die sich eine derart einflussreiche Position am Markt gesichert haben, dass sie einer einheitlichen Regulierung im gesamten Unionsgebiet unterworfen werden sollen, wodurch für alle Beteiligte Rechtssicherheit geschaffen wird. &lt;br /&gt;
&lt;br /&gt;
Das Paket über digitale Dienste besteht aus zwei Rechtsakten:&lt;br /&gt;
&lt;br /&gt;
* Das [[Digital Services Act (DSA)|Gesetz über digitale Dienste (Digital Services Act oder „DSA“)]]&amp;lt;ref&amp;gt;Mehr Informationen über den Hintergrund und die Ziele des DSA finden sich in der Infographik der EU unter folgendem Link: https://www.consilium.europa.eu/de/infographics/digital-services-act/. &amp;lt;/ref&amp;gt;, dessen Ziel es ist, ein sicheres Online-Umfeld für Nutzende digitaler Dienste zu schaffen. Im Zentrum stehen die Gewährleistung von Grundrechten im digitalen Raum, beispielsweise durch Vorschriften im Umgang mit illegalen Online-Inhalten, die Festlegung von einheitlichen Transparenzvorschriften, besondere Regelungen für Werbeschaltungen und die Regulierung der Haftung von Online-Diensten. &lt;br /&gt;
* Das [[Digital Markets Act (DMA)|Gesetz über digitale Märkte (Digital Markets Act oder „DMA“)]]&amp;lt;ref&amp;gt;Mehr Informationen über den Hintergrund und die Ziele des DMA finden sich in der Infographik der EU unter folgendem Link: https://www.consilium.europa.eu/de/infographics/digital-markets-act/.&amp;lt;/ref&amp;gt;, welches darauf abzielt, gleiche Wettbewerbsbedingungen für alle digitalen Unternehmen zu schaffen, um einen wettbewerbsfähigen und fairen digitalen Sektor zu gewährleisten.&amp;lt;ref&amp;gt;Mehr Informationen zum Paket über digitale Dienste sind auf folgenden Webseiten zu finden: https://www.consilium.europa.eu/de/policies/digital-services-package/ und https://digital-strategy.ec.europa.eu/de/policies/digital-services-act-package.&amp;lt;/ref&amp;gt;&lt;br /&gt;
Das Bestreben, ein vertrauenswürdiges und vorhersehbares digitales Umfeld zu schaffen, eint das Paket über digitale Dienste mit der [[Regulation on electronic identification and trust services (eIDAS)|eIDAS-VO]], die zur EU Digitalstrategie gehört und darauf gerichtet ist, elektronische Interaktionen durch harmonisierte Regelungen sicherer zu gestalten. Die mit der eIDAS-VO bezweckte Regulierung elektronischer Identifikations- und Vertrauensdienste soll außerdem zur Rechtssicherheit beitragen und die Haftung der unterschiedlichen Parteien klarstellen. Die von der eIDAS-VO erfassten Dienste zielen beispielsweise aus Unternehmenssicht darauf ab, die Identität von Kunden vertrauenswürdig zu überprüfen und dadurch den Anforderungen an den „Know-Your-Customer-Grundsatz“ gerecht zu werden. Damit nimmt die eIDAS-VO gewissermaßen den Gegenpart zum DSA ein, der gewissen Diensteanbietern die Verpflichtung auferlegt, Informationen betreffend die Nachverfolgbarkeit von Unternehmen zum Schutz der Kunden einzuholen („Know-your-Business-Customer-Grundsatz“). Dies wiederum soll das Vertrauen der Verbraucher erhöhen, womit sich die Zielsetzung der eIDAS-VO in jene des Pakets über digitale Dienste einfügt. Die eIDAS-VO besteht seit 2014 und wurde 2024 umfassend novelliert. Die wichtigste Neuerung ist das sogenannte European Digital Identity Wallet, das allen EU-Bürger*innen ab spätestens Herbst 2026 ermöglichen soll, sich online und offline auszuweisen, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachzuweisen, vom Altersnachweis über Zeugnisse bis hin zu Tickets.&lt;br /&gt;
&lt;br /&gt;
Die [[Ecodesign|Ökodesign-VO]] reiht sich als letzter Rechtsakt in dem gegenständlichen Cluster ein und ihr Regelungsbereich betrifft im Wesentlichen Nachhaltigkeitsanforderungen an physische Produkte, womit es sich bei der Ökodesign-VO um einen marktregulatorischen Akt handelt. Als Teil des [https://ec.europa.eu/commission/presscorner/detail/en/ip_22_2013 Aktionsplanes im Rahmen des europäischen Grünen Deals] zielt die Verordnung darauf ab, nachhaltige Produkte zur Norm im EU-Binnenmarkt zu machen und sicherzustellen, dass diese länger halten und Energie und Ressourcen effizienter nutzen. Außerdem sollen dadurch die Wettbewerbsbedingungen für nachhaltige Produkte im EU-Binnenmarkt verbessert werden, wodurch der Wettbewerbsaspekt dieses Rechtsakts zum Ausdruck kommt. Der Fokus der Verordnung liegt auf der Einführung eines digitalen Produktpasses, womit Informationen über die Produkte sowohl für Verbraucher als auch für Unternehmen transparent gemacht werden sollen. Der Ökodesign-VO wohnt somit einerseits eine marktregulatorische bzw. wettbewerbsrechtliche Komponente inne als auch Aspekte des Verbraucherschutzes durch die Förderung von transparenten, schnellen und leicht zugänglichen Produktinformationen.&amp;lt;ref&amp;gt;Mehr Informationen zur Ökodesign-VO sind auf folgender Webseite zu finden: https://germany.representation.ec.europa.eu/news/okodesign-verordnung-neue-regeln-fur-nachhaltige-produkte-kraft-2024-07-19_de.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
== Referenzen ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Ecodesign_for_Sustainable_Products_Regulation_(ESPR)&amp;diff=2092</id>
		<title>Ecodesign for Sustainable Products Regulation (ESPR)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Ecodesign_for_Sustainable_Products_Regulation_(ESPR)&amp;diff=2092"/>
		<updated>2025-01-25T09:30:21Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Einführung */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1781|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1781 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Schaffung eines Rahmens für die Festlegung von Ökodesign-Anforderungen für nachhaltige Produkte, zur Änderung der Richtlinie (EU) 2020/1828 und der Verordnung (EU) 2023/1542 und zur Aufhebung der Richtlinie 2009/125/EG|Kurztitel=Ecodesign Regulation/Ökodesign-Verordnung|Bezeichnung=|Rechtsmaterie=Umweltrecht|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1781, 1|Anzuwenden=31. Dezember 2026/2030 (mit Ausnahmen/Übergangsbestimmungen)|Gültig=inkraft}}&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergie&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Ökodesign-VO will einen Rahmen für die Festlegung von &#039;&#039;&#039;Ökodesign-Anforderungen&#039;&#039;&#039;&amp;lt;ref&amp;gt;Ökodesign-Anforderung wird definiert als &amp;quot;eine Leistungs- oder Informationsanforderung, die darauf abzielt, ein Produkt, einschließlich der Prozesse, die entlang der gesamten Wertschöpfungskette des Produkts stattfinden, ökologisch nachhaltiger zu gestalten&amp;quot; (Art 2 Z 7 Ökodesign-VO).&amp;lt;/ref&amp;gt; für Produkte schaffen, um so ihre ökologische Nachhaltigkeit zu verbessern, damit nachhaltige Produkte zu Norm werden, der CO2-Fußabdruck und Umweltfußabdruck verringert wird und der freie Verkehr mit diesen Produkten sichergestellt wird (Art 1 Abs 1 Ökodesign-VO). &lt;br /&gt;
&lt;br /&gt;
Sekundär werden&lt;br /&gt;
&lt;br /&gt;
* ein digitaler &#039;&#039;&#039;Produktpass&#039;&#039;&#039; eingeführt&lt;br /&gt;
* verbindliche Anforderungen für die &#039;&#039;&#039;umweltorientierte Vergabe&#039;&#039;&#039; öffentlicher Aufträge eingeführt&lt;br /&gt;
* ein Rahmen geschaffen, um zu verhindern, dass &#039;&#039;&#039;unverkaufte Verbrauchsprodukte&#039;&#039;&#039; vernichtet werden.&lt;br /&gt;
Ökodesign wird als &amp;quot;die Einbeziehung von Erwägungen der ökologischen Nachhaltigkeit in die Merkmale eines Produkts und die Prozesse, die entlang der gesamten Wertschöpfungskette des Produkts stattfinden&amp;quot; definiert (Art 2 Z 6 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die folgenden Ausführungen geben &#039;&#039;&#039;&amp;lt;u&amp;gt;keinen&amp;lt;/u&amp;gt; vollständigen Überblick&#039;&#039;&#039; über die Ökodesign-VO, sondern konzentrieren sich im Sinne der Ausrichtung von ATLAWS auf Digitalisierungsrechakte insbesondere auf den digitalen Produktpass (Art 9-15 Ökodesign-VO) in Verbindung mit dem Anwendungsbereich (Art 1 Ökodesign-VO) und Informationen zu den Ökodesign-Anforderungen (Art 4-8 Ökodesign-VO), die für das Verständnis des Produktpasses notwendig sind.&lt;br /&gt;
&lt;br /&gt;
Dabei enthält die Ökodesign-VO jedoch noch eine Reihe von weiteren Abschnitten und Inhalten, bspw zu Governance durch Behörden, zum Konformitätsbewertungsverfahren sowie zur Regulierung/zum Verbot der Vernichtung unverkaufter Verbraucherprodukte, die in in dieser Ausarbeitung &amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; näher erläutert werden. Die in dieser Ausarbeitung bearbeiteten Abschnitte (Art 1-15) sind in der folgenden strukturellen Übersicht über den gesamten Inhalt der Ökodesign-VO &#039;&#039;&#039;fett hervorgehoben&#039;&#039;&#039;: &lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Allgemeine Bestimmungen (Art 1-3 Ökodesign-VO)&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;Ökodesign-Anforderungen (Art 4-8 Ökodesign-VO)&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;Digitaler Produktpass (Art 9-15 Ökodesign-VO)&#039;&#039;&#039;&lt;br /&gt;
* Etiketten (Art 16-17 Ökodesign-VO)&lt;br /&gt;
* Priorisierung, Planung und Konsultation (Art 18-22 Ökodesign-VO)&lt;br /&gt;
* Vernichtung unverkaufter Verbraucherprodukte (Art 23-26 Ökodesign-VO)&lt;br /&gt;
* Pflichten der Wirtschaftsteilnehmer (Art 27-38 Ökodesign-VO)&lt;br /&gt;
* Produktkonformität (Art 39-47 Ökodesign-VO)&lt;br /&gt;
* Notifizierung von Konformitätsbewertungsstellen (Art 48-63 Ökodesign-VO)&lt;br /&gt;
* Anreize (Art 64-65 Ökodesign-VO)&lt;br /&gt;
* Marktüberwachung (Art 66-68 Ökodesign-VO)&lt;br /&gt;
* Schlutzklauselverfahren (Art 69-71 Ökodesign-VO)&lt;br /&gt;
* Übertragene Befugnisse und Ausschussverfahren (Art 72-73 Ökodesign-VO)&lt;br /&gt;
* Schlussbestimmungen (Art 74-80 Ökodesign-VO)&lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
Die Ökodesign-VO gilt für &#039;&#039;&#039;alle physischen Waren&#039;&#039;&#039;, die in Verkehr gebracht&amp;lt;ref&amp;gt;&amp;quot;Inverkehrbringen&amp;quot; bezeichnet &amp;quot;die erstmalige Bereitstellung eines Produkts auf dem Unionsmarkt&amp;quot; (Art 2 Z 40 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
„Bereitstellung auf dem Markt“ bezeichnet &amp;quot;jede entgeltliche oder unentgeltliche Abgabe eines Produkts zum Vertrieb, Verbrauch oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot; (Art 2 Z 39 Ökodesign-VO).&amp;lt;/ref&amp;gt; oder in Betrieb genommen werden,&amp;lt;ref&amp;gt;&amp;quot;Inbetriebnahme&amp;quot; bezeichnet &amp;quot;die erstmalige bestimmungsgemäße Verwendung eines Produkts in der Union&amp;quot; (Art 2 Z 41 Ökodesign-VO).&amp;lt;/ref&amp;gt; einschließlich von Bauteilen&amp;lt;ref&amp;gt;Ein Produkt, das zum Einbau in ein anderes Produkt bestimmt ist (Art 2 Z 2 Ökodesign-VO).&amp;lt;/ref&amp;gt; und Zwischenprodukten&amp;lt;ref&amp;gt;Ein Produkt, das einer weiteren Handhabung oder Verarbeitung bedarf, um es für Endnutzer geeignet zu machen (Art 2 Z 3 Ökodesign-VO).&amp;lt;/ref&amp;gt; (Art 1 Abs 2 Ökodesign-VO). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; bestehen für &lt;br /&gt;
&lt;br /&gt;
* Lebensmittel&lt;br /&gt;
* Futtermittel&lt;br /&gt;
* Arzneimittel&lt;br /&gt;
* Tierarzneimittel&lt;br /&gt;
* lebende Pflanzen, Tiere und Mikroorganismen&lt;br /&gt;
* Erzeugnisse menschlichen Ursprungs&lt;br /&gt;
* Erzeugnisse von Pflanzen und Tieren, die unmittelbar mit ihrer künftigen Reproduktion zusammenhängen&lt;br /&gt;
* Fahrzeuge&lt;br /&gt;
&lt;br /&gt;
== Materielle Aspekte ==&lt;br /&gt;
&lt;br /&gt;
=== Ökodesign-Anforderungen (Art 3-8 Ökodesign-VO) ===&lt;br /&gt;
&lt;br /&gt;
==== Allgemeines ====&lt;br /&gt;
Produkte dürfen dabei nur in Verkehr gebracht oder in Betrieb genommen werden, wenn sie die geltenden &#039;&#039;&#039;Ökodesign-Anforderungen&#039;&#039;&#039; erfüllen. Diese werden durch delegierte Rechtsakte gemäß Art 4 Ökodesign-VO festgelegt (Art 3 Abs 1 Ökodesign-VO). Die Anforderungen lassen sich dabei in &#039;&#039;&#039;Leistungsanforderungen&#039;&#039;&#039; und &#039;&#039;&#039;Informationsanforderungen&#039;&#039;&#039; unterscheiden (Art 5 Abs 9 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Befugnis zur Erlassung von &#039;&#039;&#039;delegierten Rechtsakten&#039;&#039;&#039; liegt dabei bei der Kommission (Art 4 Abs 1 Ökodesign-VO). Dabei ist den Wirtschaftsteilnehmern genügend Zeit zur Erfüllung der Ökodesign-Anforderungen einzuräumen und insbesondere den Bedürfnissen von KMU Rechnung zu tragen (Art 4 Abs 4 Ökodesign-VO). Bei Besonderheiten von Produktgruppen können auch &#039;&#039;&#039;zusätzliche Anforderungen&#039;&#039;&#039; durch delegierte Rechtsakte normiert werden (Art 4 Abs 6 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die &#039;&#039;&#039;Mindestinhalte&#039;&#039;&#039; der delegierten Rechtsakte werden dabei in Art 8 Ökodesign-VO festgelegt (bspw Definition der erfassten Produktgruppen, Ökodesign-Anforderungen, Prüf-, Mess- oder Berechnungsnormen oder -methoden).&lt;br /&gt;
&lt;br /&gt;
Die Ökodesign-Anforderungen in den delegierten Rechtsakten müssen auf der Grundlage von in Anhang I genannten Produktparametern so gestaltet sein, dass sie in Art 5 Abs 1 Ökodesign-VO gelistete &#039;&#039;&#039;Produktaspekte&#039;&#039;&#039; (bspw Nachrüstbarkeit, Reparierbarkeit, Energieverbrauch, Umweltauswirkungen) verbessern.&lt;br /&gt;
&lt;br /&gt;
Anhang I Ökodesign-VO listet dabei &#039;&#039;&#039;Produktparameter&#039;&#039;&#039;, dh Parameter, die als Grundlage für die Verbesserung der Produktaspekte herangezogen und bei Bedarf ergänzt werden können, bspw:&lt;br /&gt;
&lt;br /&gt;
* Indikatoren für Funktionsbeständigkeit und Zuverlässigkeit des Produkts oder seiner Bauteile: garantierte Lebensdauer des Produkts [...]&lt;br /&gt;
* Indikatoren für einfache Reparatur und Wartung: Merkmale, Verfügbarkeit, Lieferzeit und Erschwinglichkeit von Ersatzteilen [...]&lt;br /&gt;
Im Wege der Ökodesign-Anforderungen und der in Anhang I genannten Produktparameter soll sichergestellt werden, dass Produkte &#039;&#039;&#039;nicht vorzeitig obsolet&#039;&#039;&#039; werden (Art 5 Abs 2 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Anforderungen werden prinzipiell jeweils für bestimmte Produktgruppen festgelegt, wobei bspw bei Ähnlichkeiten von Produktgruppen horizontale Anforderungen möglich sind (Art 5 Abs 4, 6-8 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Ökodesign-Anforderungen müssen in Art 5 Abs 11 Ökodesign-VO genannte &#039;&#039;&#039;Kriterien&#039;&#039;&#039; erfüllen (zB darf es zu keinen nennenswerten nachteiligen Auswirkungen auf die Funktionsweise des Produktes oder für die Verbraucher in Bezug auf die Erschwinglichkeit kommen).&lt;br /&gt;
&lt;br /&gt;
==== Leistungsanforderungen (Art 6 Ökodesign-VO) ====&lt;br /&gt;
Produkte müssen einerseits Leistungsanforderungen erfüllen, die in delegierten Rechtsakten gemäß Art 4 Ökodesign-VO festgelegt sind (Art 6 Abs 1 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Leistungsanforderungen, die wiederum auf den Produktparametern nach Anhang I Ökodesign-VO beruhen, umfassen (gegebenenfalls) (Art 6 Abs 1 Ökodesign-VO):&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Mindest- oder Höchstwerte&#039;&#039;&#039; (in Bezug auf einen/mehrere Produktparameter)&lt;br /&gt;
* &#039;&#039;&#039;nicht quantitative Anforderungen&#039;&#039;&#039; zur Verbesserungen der Leistung (in Bezug auf einen/mehrere Produktparameter)&lt;br /&gt;
&lt;br /&gt;
==== Informationsanforderungen (Art 7 Ökodesign-VO) ====&lt;br /&gt;
Neben Leistungsanforderungen  müssen Produkte auch &#039;&#039;&#039;Informationsanforderungen&#039;&#039;&#039; erfüllen, die ebenfalls in delegierten Rechtsakten gem Art 5 Ökodesign-VO festgelegt sind (Art 7 Abs 1 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Diese Anforderungen müssen &#039;&#039;&#039;mindestens&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
* Anforderungen in Bezug auf den digitalen Produktpass und &lt;br /&gt;
* Anforderungen in Beug auf besorgniserregende Stoffe &lt;br /&gt;
&lt;br /&gt;
umfassen und klar, leicht verständlich und auf die besonderen Merkmale der betreffenden Produktgruppe sowie vorgesehenen Empfänger zugeschnitten (Art 7 Abs 2 Ökodesign-VO). &lt;br /&gt;
&lt;br /&gt;
Gegebenenfalls müssen auch &#039;&#039;&#039;weitere Informationen&#039;&#039;&#039; über die Leistung des Produkts, für Kunden und andere Akteure über die Installation, Nutzung, Wartung und Reparatur, etc beigefügt werden (Art 7 Abs 2 lit b Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Kommission kann bei Informationen über die Leistung des Produktes &#039;&#039;&#039;Leistungsklassen&#039;&#039;&#039; festlegen (Art 7 Abs 4 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Informationsanforderungen sollen dabei auch die &#039;&#039;&#039;Rückverfolgung von besorgniserregenden Stoffen&#039;&#039;&#039; ermöglichen (Art 7 Abs 5 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
In den Informationsanforderungen ist auch anzugeben, wie die Informationen zur Verfügung zu stellen sind. Diese sind primär, wenn verfügbar, im digitalen Produktpass anzugeben und erforderlichenfalls auch auf andere Art (auf dem Produkt selbst, auf der Verpackung, auf dem Etikett, in der Bedienungsanleitung, kostenfrei auf der Website) bereitzustellen (Art 7 Abs 7 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Informationen müssen in einer Sprache zur Verfügung gestellt werden, die von den Kunden &#039;&#039;&#039;leicht verstanden&#039;&#039;&#039; werden kann. Die Sprache wird vom MS festgelegt, auf dessen Markt das Produkt bereitgestellt in dem es in in Betrieb genommen werden soll (Art 7 Abs 8 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
=== Digitaler Produktpass (Art 9-15 Ökodesign-VO) ===&lt;br /&gt;
&lt;br /&gt;
==== Allgemeines (Art 9 Ökodesign-VO) ====&lt;br /&gt;
Als eine sog Informationsanforderung sieht die Ökodesign-VO vor, dass Produkte nur in Verkehr gebracht oder in Betrieb genommen werden dürfen, wenn ein digitaler Produktpass verfügbar ist (Art 9 Abs 1 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Der Begriff digitaler Produktpass bezeichnet dabei &amp;quot;einen produktspezifischen Datensatz&amp;quot;, Informationen enthält, die durch delegierten Rechtsakt festgelegt werden und der elektronisch über einen Datenträger&amp;lt;ref&amp;gt;&amp;quot;Datenträger&amp;quot; bezeichnet &amp;quot;einen Strichcode, ein zweidimensionales Symbol oder ein anderes automatisches Datenerfassungsmedium, das von einem Gerät gelesen werden kann&amp;quot; (Art 2 Z 29 Ökodesign-VO).&amp;lt;/ref&amp;gt; zugänglich ist (Art 2 Z 28 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Dieser Produktpass muss in Einklang mit den erlassenen delegierten Rechtsakten nach Art 4, 10, 11 Ökodesign-VO sein.&lt;br /&gt;
&lt;br /&gt;
Die Daten im Produktpass müssen dabei &#039;&#039;&#039;richtig&#039;&#039;&#039;, &#039;&#039;&#039;vollständig&#039;&#039;&#039; und auf dem &#039;&#039;&#039;neuesten Stand&#039;&#039;&#039; sein.&lt;br /&gt;
&lt;br /&gt;
Die konkrete Anforderungen an den Produktpass werden dabei durch delegierte Rechtsakte festgelegt. &lt;br /&gt;
&lt;br /&gt;
Art 9 Abs 2 Ökodesign-VO gibt hier, abhängig von der Produktgruppe, &#039;&#039;&#039;Mindestanforderungen&#039;&#039;&#039; vor. &#039;&#039;&#039;Anhang III&#039;&#039;&#039; Ökodesign-VO listet dabei Daten, die im Wege von delegierten Rechtsakten in den digitalen Produktpass aufgenommen werden können.&lt;br /&gt;
&lt;br /&gt;
Dadurch soll sichergestellt werden, dass die Akteure auf für sie relevante Produktinformationen umstandslos zugreifen und diese verstehen können, die Überprüfbarkeit der Produktkonformität durch die zuständigen nationalen Behörden erleichtert werde und die Rückverfolgbarkeit von Produkten entlang der Wertschöpfungskette verbessert werden (Art 9 Abs 3 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Kommission kann dabei bestimmte Produktgruppe von der Anforderung, einen digitalen Produktpass zu haben, &#039;&#039;&#039;ausnehmen&#039;&#039;&#039; (Art 9 Abs 4 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an den digitalen Produktpass (Art 10 Ökodesign-VO) ====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Art 10 Abs 1 Ökodesign-VO nennt &#039;&#039;&#039;grundlegende Bedingungen&#039;&#039;&#039;, die der Produktpass erfüllen muss. Er muss ua&lt;br /&gt;
&lt;br /&gt;
* über einen Datenträger mit einer dauerhaften eindeutigen Produktkennung verbunden sein&lt;br /&gt;
* der Datenträger muss auf dem Produkt, seiner Verpackung oder den dem Produkt beigefügten Unterlagen angebracht sein&lt;br /&gt;
* der Datenträger und die eindeutigen Produktkennungen müssen einer oder mehreren der in Anhang III Abs 2 Ökodesign-VO genannten Normen oder gleichwertigen europäischen oder internationalen Normen entsprechen&lt;br /&gt;
* alle im digitalen Produktpass enthaltenen Daten müssen auf offenen Standards beruhen, die in einem interoperablen Format entwickelt wurden. Die Daten müssen gegebenenfalls maschinenlesbar, strukturiert und durchsuchbar sein und über ein offenes interoperables Datenaustauschnetz ohne Anbieterbindung übertragen werden können. Grundlegende Anforderungen werden neben Art 10 in Art 11 Ökodesign-VO festgelegt.&lt;br /&gt;
* personenbezogene Daten, die sich auf Kunden beziehen, dürfen nicht ohne deren ausdrückliche Einwilligung im Einklang mit Art 6 DSGVO im Produktpass gespeichert werden&lt;br /&gt;
* die im Produktpass enthaltenen Daten beziehen sich auf das Produktmodell, die Produktcharge/den Artikel&lt;br /&gt;
* der Zugang zu den im Produktpass enthaltenen Informationen wird - im Einklang mit Art 10, 11 Ökodesign-VO - durch delegierte Rechtsakte geregelt&lt;br /&gt;
&lt;br /&gt;
==== Technische Gestaltung und Einsatz des digitalen Produktpasses (Art 11 Ökodesign-VO) ====&lt;br /&gt;
Art 11 Ökodesign-VO listet Anforderungen an die technische Gestaltung und den Einsatz des digitalen Produktpasses.&lt;br /&gt;
&lt;br /&gt;
Die wichtigsten Anforderungen bestehen in Bezug auf&lt;br /&gt;
&lt;br /&gt;
* Interoperabilität mit anderen digitalen Produktpässen (in Bezug auf die technischen, semantischen und organisatorischen Aspekte der Ende-zu-Ende-Kommunikation und der Datenübertragung)&lt;br /&gt;
* kostenloser und einfacher Zugang zum digitalen Produktpass (auf der Grundlage der jeweiligen Zugangsrechte der Akteure)&lt;br /&gt;
* Speicherung des digitalen Produktpasses (von dem für die Ausstellung verantwortlichen Wirtschaftsteilnehmer/unabhängigen Digitalproduktpass-Dienstleister)&lt;br /&gt;
* Verfügbarkeit des digitalen Produktpasses über einen durch delegierten Rechtsakt festgelegten Zeitraum &lt;br /&gt;
* Einschränkung des Rechtes auf Eingabe, Änderung, Aktualisierung von Daten auf der Grundlage der Zugangsrechte &lt;br /&gt;
* Gewährleistung der Authentizität, Zuverlässigkeit und Integrität der Daten&lt;br /&gt;
* Gewährleistung eines hohen Maßes an Sicherheit und Privatsphäre, Vermeidung von Betrug &lt;br /&gt;
&lt;br /&gt;
==== Eindeutige Kennung (Art 12 Ökodesign-VO) ====&lt;br /&gt;
Zunächst normiert Art 12 Abs 1 Ökodesign-VO, dass die eindeutigen Kennungen der Wirtschaftsteilnehmer (Anhang III Abs1 lit g und h ) und die eindeutigen Kennungen der Einrichtungen (Anhang III Abs 1 lt i) den in Anhang III Abs 1 lit c und Anhang III Abs 2 &#039;&#039;&#039;genannten Normen&#039;&#039;&#039;&amp;lt;ref&amp;gt;&amp;quot;GTIN (Global Trade Identification Number) gemäß der Norm ISO/IEC 15459-6 der Internationalen Organisation für Normung bzw. der Internationalen Elektrotechnischen Kommission oder eine gleichwertige Kennung von Produkten oder Teilen davon&amp;quot;; &amp;quot;Datenträger, die in Buchstabe b genannte eindeutige Produktkennung, die unter den Buchstaben g, h und k genannten eindeutigen Kennungen der Wirtschaftsteilnehmer und die unter Buchstabe i genannten eindeutigen Kennungen der Einrichtungen müssen, soweit für die betreffenden Produkte relevant, den ISO/IEC-Normen 15459-1:2014, 15459-2:2015, 15459-3:2014, 15459-4:2014, 15459-5:2014 und 15459-6:2014 entsprechen&amp;quot;.&amp;lt;/ref&amp;gt; oder gleichwertigen europäischen oder internationalen Normen entsprechen müssen. Dies jedoch nur bis zu dem Zeitpunkt, bis die Fundstellen harmonisierter Normen im Amtsblatt der Europäischen Union veröffentlicht werden.&lt;br /&gt;
&lt;br /&gt;
Steht noch keine eindeutige &#039;&#039;&#039;Kennung des Wirtschaftsteilnehmers&#039;&#039;&#039; (Anhang III Abs 1 lit h) zur Verfügung, so beantragt der Wirtschaftsteilnehmer, der den digitalen Produktpass ausstellt oder aktualisiert, im Namen des betreffenden Akteurs eine eindeutige Kennung des Wirtschaftsteilnehmers und übermittelt diesem Akteur vollständige Angaben zur eindeutigen Kennung des Wirtschaftsteilnehmers (Art 12 Abs 2 Ökodesign-VO). Eine ähnliche Regulierung besteht in Bezug auf die &#039;&#039;&#039;eindeutige Kennung der Einrichtung&#039;&#039;&#039; (Anhang III Abs 1 lit i) (Art 12 Abs 3 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Literatur ==&lt;br /&gt;
&lt;br /&gt;
=== Einführungswerke ===&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;Nusser/Fehse&#039;&#039; (Hrsg), Das neue Ökodesign-Recht. Ökodesign-Verordnung für nachhaltige Produkte (2024, iE).&lt;br /&gt;
&lt;br /&gt;
=== Kommentare ===&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;Mittwoch/Weber&#039;&#039;, Ökodesign-Verordnung für nachhaltige Produkte. Ökodesign-VO (2025, iE).&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Links ==&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;Bundeskanzleramt&#039;&#039;, Ökodesign-Verordnung tritt in Kraft, https://www.bundeskanzleramt.gv.at/themen/europa-aktuell/2024/07/oekodesign-verordnung-tritt-in-kraft.html (Stand 18. 7. 2024).&lt;br /&gt;
* &#039;&#039;Europäische Kommission. Vertretung in Deutschland&#039;&#039;, Ökodesign-Verordnung: Neue Regeln für nachhaltige Produkte in Kraft, https://germany.representation.ec.europa.eu/news/okodesign-verordnung-neue-regeln-fur-nachhaltige-produkte-kraft-2024-07-19_de (19. Juli 2024).&lt;br /&gt;
*&#039;&#039;Industrie 4.0&#039;&#039;, Der Digitale Produktpass, https://plattformindustrie40.at/blog/2023/11/29/der-digitale-produktpass/. &lt;br /&gt;
*&#039;&#039;Linde&#039;&#039;, Am Punkt (Podcast) #210 – 3 Minuten Recht – Ökodesign-Verordnung, https://lindemedia.at/podcast/210-3-minuten-recht-oekodesign-verordnung (Stand 14. 8. 2024).&lt;br /&gt;
* &#039;&#039;Umwelt Bundesamt&#039;&#039;, Neue Ökodesign-Verordnung für nachhaltige Produkte tritt in Kraft, https://www.umweltbundesamt.de/themen/neue-oekodesign-verordnung-fuer-nachhaltige (Stand 3. 7 . 2024).&lt;br /&gt;
* &#039;&#039;Spiegel/Rohrßen&#039;&#039;, Die Ökodesign-Verordnung im Überblick, https://www.taylorwessing.com/de/insights-and-events/insights/2024/07/oekodesign-vo (Stand 25. 7. 2024).&lt;br /&gt;
* &#039;&#039;wbcsd&#039;&#039;, The EU Digital Product Passport (Stand 24. 1. 2024), https://www.wbcsd.org/resources/the-eu-digital-product-passport/. &lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, Die neue Ökodesign-Verordnung (ESPR), https://www.wko.at/energie/espr (Stand 8. 11. 2024).&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Ecodesign_for_Sustainable_Products_Regulation_(ESPR)&amp;diff=2091</id>
		<title>Ecodesign for Sustainable Products Regulation (ESPR)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Ecodesign_for_Sustainable_Products_Regulation_(ESPR)&amp;diff=2091"/>
		<updated>2025-01-25T09:28:08Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Einführung */ eingefügt &amp;quot;in der folgenden strukturellen Übersicht über die Inhalte der Ökodesign-VO&amp;quot;, das hat mE gefehlt [Ich lese es mir gerade nur interessnhalber durch, und da ist mir das aufgefallen; ich hoffe, solche kleinen Änderungen sind ok]&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1781|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1781 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Schaffung eines Rahmens für die Festlegung von Ökodesign-Anforderungen für nachhaltige Produkte, zur Änderung der Richtlinie (EU) 2020/1828 und der Verordnung (EU) 2023/1542 und zur Aufhebung der Richtlinie 2009/125/EG|Kurztitel=Ecodesign Regulation/Ökodesign-Verordnung|Bezeichnung=|Rechtsmaterie=Umweltrecht|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1781, 1|Anzuwenden=31. Dezember 2026/2030 (mit Ausnahmen/Übergangsbestimmungen)|Gültig=inkraft}}&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergie&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Ökodesign-VO will einen Rahmen für die Festlegung von &#039;&#039;&#039;Ökodesign-Anforderungen&#039;&#039;&#039;&amp;lt;ref&amp;gt;Ökodesign-Anforderung wird definiert als &amp;quot;eine Leistungs- oder Informationsanforderung, die darauf abzielt, ein Produkt, einschließlich der Prozesse, die entlang der gesamten Wertschöpfungskette des Produkts stattfinden, ökologisch nachhaltiger zu gestalten&amp;quot; (Art 2 Z 7 Ökodesign-VO).&amp;lt;/ref&amp;gt; für Produkte schaffen, um so ihre ökologische Nachhaltigkeit zu verbessern, damit nachhaltige Produkte zu Norm werden, der CO2-Fußabdruck und Umweltfußabdruck verringert wird und der freie Verkehr mit diesen Produkten sichergestellt wird (Art 1 Abs 1 Ökodesign-VO). &lt;br /&gt;
&lt;br /&gt;
Sekundär werden&lt;br /&gt;
&lt;br /&gt;
* ein digitaler &#039;&#039;&#039;Produktpass&#039;&#039;&#039; eingeführt&lt;br /&gt;
* verbindliche Anforderungen für die &#039;&#039;&#039;umweltorientierte Vergabe&#039;&#039;&#039; öffentlicher Aufträge eingeführt&lt;br /&gt;
* ein Rahmen geschaffen, um zu verhindern, dass &#039;&#039;&#039;unverkaufte Verbrauchsprodukte&#039;&#039;&#039; vernichtet werden.&lt;br /&gt;
Ökodesign wird als &amp;quot;die Einbeziehung von Erwägungen der ökologischen Nachhaltigkeit in die Merkmale eines Produkts und die Prozesse, die entlang der gesamten Wertschöpfungskette des Produkts stattfinden&amp;quot; definiert (Art 2 Z 6 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die folgenden Ausführungen geben &#039;&#039;&#039;&amp;lt;u&amp;gt;keinen&amp;lt;/u&amp;gt; vollständigen Überblick&#039;&#039;&#039; über die Ökodesign-VO, sondern konzentrieren sich im Sinne der Ausrichtung von ATLAWS auf Digitalisierungsrechakte insbesondere auf den digitalen Produktpass (Art 9-15 Ökodesign-VO) in Verbindung mit dem Anwendungsbereich (Art 1 Ökodesign-VO) und Informationen zu den Ökodesign-Anforderungen (Art 4-8 Ökodesign-VO), die für das Verständnis des Produktpasses notwendig sind.&lt;br /&gt;
&lt;br /&gt;
Dabei enthält die Ökodesign-VO jedoch noch eine Reihe von weiteren Abschnitten und Inhalten, bspw zu Governance durch Behörden, zum Konformitätsbewertungsverfahren sowie zur Regulierung/zum Verbot der Vernichtung unverkaufter Verbraucherprodukte, die in in dieser Ausarbeitung &amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; näher erläutert werden. Die in dieser Ausarbeitung bearbeiteten Abschnitte (Art 1-15) sind in der folgenden strukturellen Übersicht über die Inhalte der Ökodesign-VO &#039;&#039;&#039;fett hervorgehoben&#039;&#039;&#039;: &lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Allgemeine Bestimmungen (Art 1-3 Ökodesign-VO)&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;Ökodesign-Anforderungen (Art 4-8 Ökodesign-VO)&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;Digitaler Produktpass (Art 9-15 Ökodesign-VO)&#039;&#039;&#039;&lt;br /&gt;
* Etiketten (Art 16-17 Ökodesign-VO)&lt;br /&gt;
* Priorisierung, Planung und Konsultation (Art 18-22 Ökodesign-VO)&lt;br /&gt;
* Vernichtung unverkaufter Verbraucherprodukte (Art 23-26 Ökodesign-VO)&lt;br /&gt;
* Pflichten der Wirtschaftsteilnehmer (Art 27-38 Ökodesign-VO)&lt;br /&gt;
* Produktkonformität (Art 39-47 Ökodesign-VO)&lt;br /&gt;
* Notifizierung von Konformitätsbewertungsstellen (Art 48-63 Ökodesign-VO)&lt;br /&gt;
* Anreize (Art 64-65 Ökodesign-VO)&lt;br /&gt;
* Marktüberwachung (Art 66-68 Ökodesign-VO)&lt;br /&gt;
* Schlutzklauselverfahren (Art 69-71 Ökodesign-VO)&lt;br /&gt;
* Übertragene Befugnisse und Ausschussverfahren (Art 72-73 Ökodesign-VO)&lt;br /&gt;
* Schlussbestimmungen (Art 74-80 Ökodesign-VO)&lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
Die Ökodesign-VO gilt für &#039;&#039;&#039;alle physischen Waren&#039;&#039;&#039;, die in Verkehr gebracht&amp;lt;ref&amp;gt;&amp;quot;Inverkehrbringen&amp;quot; bezeichnet &amp;quot;die erstmalige Bereitstellung eines Produkts auf dem Unionsmarkt&amp;quot; (Art 2 Z 40 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
„Bereitstellung auf dem Markt“ bezeichnet &amp;quot;jede entgeltliche oder unentgeltliche Abgabe eines Produkts zum Vertrieb, Verbrauch oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot; (Art 2 Z 39 Ökodesign-VO).&amp;lt;/ref&amp;gt; oder in Betrieb genommen werden,&amp;lt;ref&amp;gt;&amp;quot;Inbetriebnahme&amp;quot; bezeichnet &amp;quot;die erstmalige bestimmungsgemäße Verwendung eines Produkts in der Union&amp;quot; (Art 2 Z 41 Ökodesign-VO).&amp;lt;/ref&amp;gt; einschließlich von Bauteilen&amp;lt;ref&amp;gt;Ein Produkt, das zum Einbau in ein anderes Produkt bestimmt ist (Art 2 Z 2 Ökodesign-VO).&amp;lt;/ref&amp;gt; und Zwischenprodukten&amp;lt;ref&amp;gt;Ein Produkt, das einer weiteren Handhabung oder Verarbeitung bedarf, um es für Endnutzer geeignet zu machen (Art 2 Z 3 Ökodesign-VO).&amp;lt;/ref&amp;gt; (Art 1 Abs 2 Ökodesign-VO). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; bestehen für &lt;br /&gt;
&lt;br /&gt;
* Lebensmittel&lt;br /&gt;
* Futtermittel&lt;br /&gt;
* Arzneimittel&lt;br /&gt;
* Tierarzneimittel&lt;br /&gt;
* lebende Pflanzen, Tiere und Mikroorganismen&lt;br /&gt;
* Erzeugnisse menschlichen Ursprungs&lt;br /&gt;
* Erzeugnisse von Pflanzen und Tieren, die unmittelbar mit ihrer künftigen Reproduktion zusammenhängen&lt;br /&gt;
* Fahrzeuge&lt;br /&gt;
&lt;br /&gt;
== Materielle Aspekte ==&lt;br /&gt;
&lt;br /&gt;
=== Ökodesign-Anforderungen (Art 3-8 Ökodesign-VO) ===&lt;br /&gt;
&lt;br /&gt;
==== Allgemeines ====&lt;br /&gt;
Produkte dürfen dabei nur in Verkehr gebracht oder in Betrieb genommen werden, wenn sie die geltenden &#039;&#039;&#039;Ökodesign-Anforderungen&#039;&#039;&#039; erfüllen. Diese werden durch delegierte Rechtsakte gemäß Art 4 Ökodesign-VO festgelegt (Art 3 Abs 1 Ökodesign-VO). Die Anforderungen lassen sich dabei in &#039;&#039;&#039;Leistungsanforderungen&#039;&#039;&#039; und &#039;&#039;&#039;Informationsanforderungen&#039;&#039;&#039; unterscheiden (Art 5 Abs 9 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Befugnis zur Erlassung von &#039;&#039;&#039;delegierten Rechtsakten&#039;&#039;&#039; liegt dabei bei der Kommission (Art 4 Abs 1 Ökodesign-VO). Dabei ist den Wirtschaftsteilnehmern genügend Zeit zur Erfüllung der Ökodesign-Anforderungen einzuräumen und insbesondere den Bedürfnissen von KMU Rechnung zu tragen (Art 4 Abs 4 Ökodesign-VO). Bei Besonderheiten von Produktgruppen können auch &#039;&#039;&#039;zusätzliche Anforderungen&#039;&#039;&#039; durch delegierte Rechtsakte normiert werden (Art 4 Abs 6 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die &#039;&#039;&#039;Mindestinhalte&#039;&#039;&#039; der delegierten Rechtsakte werden dabei in Art 8 Ökodesign-VO festgelegt (bspw Definition der erfassten Produktgruppen, Ökodesign-Anforderungen, Prüf-, Mess- oder Berechnungsnormen oder -methoden).&lt;br /&gt;
&lt;br /&gt;
Die Ökodesign-Anforderungen in den delegierten Rechtsakten müssen auf der Grundlage von in Anhang I genannten Produktparametern so gestaltet sein, dass sie in Art 5 Abs 1 Ökodesign-VO gelistete &#039;&#039;&#039;Produktaspekte&#039;&#039;&#039; (bspw Nachrüstbarkeit, Reparierbarkeit, Energieverbrauch, Umweltauswirkungen) verbessern.&lt;br /&gt;
&lt;br /&gt;
Anhang I Ökodesign-VO listet dabei &#039;&#039;&#039;Produktparameter&#039;&#039;&#039;, dh Parameter, die als Grundlage für die Verbesserung der Produktaspekte herangezogen und bei Bedarf ergänzt werden können, bspw:&lt;br /&gt;
&lt;br /&gt;
* Indikatoren für Funktionsbeständigkeit und Zuverlässigkeit des Produkts oder seiner Bauteile: garantierte Lebensdauer des Produkts [...]&lt;br /&gt;
* Indikatoren für einfache Reparatur und Wartung: Merkmale, Verfügbarkeit, Lieferzeit und Erschwinglichkeit von Ersatzteilen [...]&lt;br /&gt;
Im Wege der Ökodesign-Anforderungen und der in Anhang I genannten Produktparameter soll sichergestellt werden, dass Produkte &#039;&#039;&#039;nicht vorzeitig obsolet&#039;&#039;&#039; werden (Art 5 Abs 2 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Anforderungen werden prinzipiell jeweils für bestimmte Produktgruppen festgelegt, wobei bspw bei Ähnlichkeiten von Produktgruppen horizontale Anforderungen möglich sind (Art 5 Abs 4, 6-8 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Ökodesign-Anforderungen müssen in Art 5 Abs 11 Ökodesign-VO genannte &#039;&#039;&#039;Kriterien&#039;&#039;&#039; erfüllen (zB darf es zu keinen nennenswerten nachteiligen Auswirkungen auf die Funktionsweise des Produktes oder für die Verbraucher in Bezug auf die Erschwinglichkeit kommen).&lt;br /&gt;
&lt;br /&gt;
==== Leistungsanforderungen (Art 6 Ökodesign-VO) ====&lt;br /&gt;
Produkte müssen einerseits Leistungsanforderungen erfüllen, die in delegierten Rechtsakten gemäß Art 4 Ökodesign-VO festgelegt sind (Art 6 Abs 1 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Leistungsanforderungen, die wiederum auf den Produktparametern nach Anhang I Ökodesign-VO beruhen, umfassen (gegebenenfalls) (Art 6 Abs 1 Ökodesign-VO):&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Mindest- oder Höchstwerte&#039;&#039;&#039; (in Bezug auf einen/mehrere Produktparameter)&lt;br /&gt;
* &#039;&#039;&#039;nicht quantitative Anforderungen&#039;&#039;&#039; zur Verbesserungen der Leistung (in Bezug auf einen/mehrere Produktparameter)&lt;br /&gt;
&lt;br /&gt;
==== Informationsanforderungen (Art 7 Ökodesign-VO) ====&lt;br /&gt;
Neben Leistungsanforderungen  müssen Produkte auch &#039;&#039;&#039;Informationsanforderungen&#039;&#039;&#039; erfüllen, die ebenfalls in delegierten Rechtsakten gem Art 5 Ökodesign-VO festgelegt sind (Art 7 Abs 1 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Diese Anforderungen müssen &#039;&#039;&#039;mindestens&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
* Anforderungen in Bezug auf den digitalen Produktpass und &lt;br /&gt;
* Anforderungen in Beug auf besorgniserregende Stoffe &lt;br /&gt;
&lt;br /&gt;
umfassen und klar, leicht verständlich und auf die besonderen Merkmale der betreffenden Produktgruppe sowie vorgesehenen Empfänger zugeschnitten (Art 7 Abs 2 Ökodesign-VO). &lt;br /&gt;
&lt;br /&gt;
Gegebenenfalls müssen auch &#039;&#039;&#039;weitere Informationen&#039;&#039;&#039; über die Leistung des Produkts, für Kunden und andere Akteure über die Installation, Nutzung, Wartung und Reparatur, etc beigefügt werden (Art 7 Abs 2 lit b Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Kommission kann bei Informationen über die Leistung des Produktes &#039;&#039;&#039;Leistungsklassen&#039;&#039;&#039; festlegen (Art 7 Abs 4 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Informationsanforderungen sollen dabei auch die &#039;&#039;&#039;Rückverfolgung von besorgniserregenden Stoffen&#039;&#039;&#039; ermöglichen (Art 7 Abs 5 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
In den Informationsanforderungen ist auch anzugeben, wie die Informationen zur Verfügung zu stellen sind. Diese sind primär, wenn verfügbar, im digitalen Produktpass anzugeben und erforderlichenfalls auch auf andere Art (auf dem Produkt selbst, auf der Verpackung, auf dem Etikett, in der Bedienungsanleitung, kostenfrei auf der Website) bereitzustellen (Art 7 Abs 7 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Informationen müssen in einer Sprache zur Verfügung gestellt werden, die von den Kunden &#039;&#039;&#039;leicht verstanden&#039;&#039;&#039; werden kann. Die Sprache wird vom MS festgelegt, auf dessen Markt das Produkt bereitgestellt in dem es in in Betrieb genommen werden soll (Art 7 Abs 8 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
=== Digitaler Produktpass (Art 9-15 Ökodesign-VO) ===&lt;br /&gt;
&lt;br /&gt;
==== Allgemeines (Art 9 Ökodesign-VO) ====&lt;br /&gt;
Als eine sog Informationsanforderung sieht die Ökodesign-VO vor, dass Produkte nur in Verkehr gebracht oder in Betrieb genommen werden dürfen, wenn ein digitaler Produktpass verfügbar ist (Art 9 Abs 1 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Der Begriff digitaler Produktpass bezeichnet dabei &amp;quot;einen produktspezifischen Datensatz&amp;quot;, Informationen enthält, die durch delegierten Rechtsakt festgelegt werden und der elektronisch über einen Datenträger&amp;lt;ref&amp;gt;&amp;quot;Datenträger&amp;quot; bezeichnet &amp;quot;einen Strichcode, ein zweidimensionales Symbol oder ein anderes automatisches Datenerfassungsmedium, das von einem Gerät gelesen werden kann&amp;quot; (Art 2 Z 29 Ökodesign-VO).&amp;lt;/ref&amp;gt; zugänglich ist (Art 2 Z 28 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Dieser Produktpass muss in Einklang mit den erlassenen delegierten Rechtsakten nach Art 4, 10, 11 Ökodesign-VO sein.&lt;br /&gt;
&lt;br /&gt;
Die Daten im Produktpass müssen dabei &#039;&#039;&#039;richtig&#039;&#039;&#039;, &#039;&#039;&#039;vollständig&#039;&#039;&#039; und auf dem &#039;&#039;&#039;neuesten Stand&#039;&#039;&#039; sein.&lt;br /&gt;
&lt;br /&gt;
Die konkrete Anforderungen an den Produktpass werden dabei durch delegierte Rechtsakte festgelegt. &lt;br /&gt;
&lt;br /&gt;
Art 9 Abs 2 Ökodesign-VO gibt hier, abhängig von der Produktgruppe, &#039;&#039;&#039;Mindestanforderungen&#039;&#039;&#039; vor. &#039;&#039;&#039;Anhang III&#039;&#039;&#039; Ökodesign-VO listet dabei Daten, die im Wege von delegierten Rechtsakten in den digitalen Produktpass aufgenommen werden können.&lt;br /&gt;
&lt;br /&gt;
Dadurch soll sichergestellt werden, dass die Akteure auf für sie relevante Produktinformationen umstandslos zugreifen und diese verstehen können, die Überprüfbarkeit der Produktkonformität durch die zuständigen nationalen Behörden erleichtert werde und die Rückverfolgbarkeit von Produkten entlang der Wertschöpfungskette verbessert werden (Art 9 Abs 3 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Kommission kann dabei bestimmte Produktgruppe von der Anforderung, einen digitalen Produktpass zu haben, &#039;&#039;&#039;ausnehmen&#039;&#039;&#039; (Art 9 Abs 4 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an den digitalen Produktpass (Art 10 Ökodesign-VO) ====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Art 10 Abs 1 Ökodesign-VO nennt &#039;&#039;&#039;grundlegende Bedingungen&#039;&#039;&#039;, die der Produktpass erfüllen muss. Er muss ua&lt;br /&gt;
&lt;br /&gt;
* über einen Datenträger mit einer dauerhaften eindeutigen Produktkennung verbunden sein&lt;br /&gt;
* der Datenträger muss auf dem Produkt, seiner Verpackung oder den dem Produkt beigefügten Unterlagen angebracht sein&lt;br /&gt;
* der Datenträger und die eindeutigen Produktkennungen müssen einer oder mehreren der in Anhang III Abs 2 Ökodesign-VO genannten Normen oder gleichwertigen europäischen oder internationalen Normen entsprechen&lt;br /&gt;
* alle im digitalen Produktpass enthaltenen Daten müssen auf offenen Standards beruhen, die in einem interoperablen Format entwickelt wurden. Die Daten müssen gegebenenfalls maschinenlesbar, strukturiert und durchsuchbar sein und über ein offenes interoperables Datenaustauschnetz ohne Anbieterbindung übertragen werden können. Grundlegende Anforderungen werden neben Art 10 in Art 11 Ökodesign-VO festgelegt.&lt;br /&gt;
* personenbezogene Daten, die sich auf Kunden beziehen, dürfen nicht ohne deren ausdrückliche Einwilligung im Einklang mit Art 6 DSGVO im Produktpass gespeichert werden&lt;br /&gt;
* die im Produktpass enthaltenen Daten beziehen sich auf das Produktmodell, die Produktcharge/den Artikel&lt;br /&gt;
* der Zugang zu den im Produktpass enthaltenen Informationen wird - im Einklang mit Art 10, 11 Ökodesign-VO - durch delegierte Rechtsakte geregelt&lt;br /&gt;
&lt;br /&gt;
==== Technische Gestaltung und Einsatz des digitalen Produktpasses (Art 11 Ökodesign-VO) ====&lt;br /&gt;
Art 11 Ökodesign-VO listet Anforderungen an die technische Gestaltung und den Einsatz des digitalen Produktpasses.&lt;br /&gt;
&lt;br /&gt;
Die wichtigsten Anforderungen bestehen in Bezug auf&lt;br /&gt;
&lt;br /&gt;
* Interoperabilität mit anderen digitalen Produktpässen (in Bezug auf die technischen, semantischen und organisatorischen Aspekte der Ende-zu-Ende-Kommunikation und der Datenübertragung)&lt;br /&gt;
* kostenloser und einfacher Zugang zum digitalen Produktpass (auf der Grundlage der jeweiligen Zugangsrechte der Akteure)&lt;br /&gt;
* Speicherung des digitalen Produktpasses (von dem für die Ausstellung verantwortlichen Wirtschaftsteilnehmer/unabhängigen Digitalproduktpass-Dienstleister)&lt;br /&gt;
* Verfügbarkeit des digitalen Produktpasses über einen durch delegierten Rechtsakt festgelegten Zeitraum &lt;br /&gt;
* Einschränkung des Rechtes auf Eingabe, Änderung, Aktualisierung von Daten auf der Grundlage der Zugangsrechte &lt;br /&gt;
* Gewährleistung der Authentizität, Zuverlässigkeit und Integrität der Daten&lt;br /&gt;
* Gewährleistung eines hohen Maßes an Sicherheit und Privatsphäre, Vermeidung von Betrug &lt;br /&gt;
&lt;br /&gt;
==== Eindeutige Kennung (Art 12 Ökodesign-VO) ====&lt;br /&gt;
Zunächst normiert Art 12 Abs 1 Ökodesign-VO, dass die eindeutigen Kennungen der Wirtschaftsteilnehmer (Anhang III Abs1 lit g und h ) und die eindeutigen Kennungen der Einrichtungen (Anhang III Abs 1 lt i) den in Anhang III Abs 1 lit c und Anhang III Abs 2 &#039;&#039;&#039;genannten Normen&#039;&#039;&#039;&amp;lt;ref&amp;gt;&amp;quot;GTIN (Global Trade Identification Number) gemäß der Norm ISO/IEC 15459-6 der Internationalen Organisation für Normung bzw. der Internationalen Elektrotechnischen Kommission oder eine gleichwertige Kennung von Produkten oder Teilen davon&amp;quot;; &amp;quot;Datenträger, die in Buchstabe b genannte eindeutige Produktkennung, die unter den Buchstaben g, h und k genannten eindeutigen Kennungen der Wirtschaftsteilnehmer und die unter Buchstabe i genannten eindeutigen Kennungen der Einrichtungen müssen, soweit für die betreffenden Produkte relevant, den ISO/IEC-Normen 15459-1:2014, 15459-2:2015, 15459-3:2014, 15459-4:2014, 15459-5:2014 und 15459-6:2014 entsprechen&amp;quot;.&amp;lt;/ref&amp;gt; oder gleichwertigen europäischen oder internationalen Normen entsprechen müssen. Dies jedoch nur bis zu dem Zeitpunkt, bis die Fundstellen harmonisierter Normen im Amtsblatt der Europäischen Union veröffentlicht werden.&lt;br /&gt;
&lt;br /&gt;
Steht noch keine eindeutige &#039;&#039;&#039;Kennung des Wirtschaftsteilnehmers&#039;&#039;&#039; (Anhang III Abs 1 lit h) zur Verfügung, so beantragt der Wirtschaftsteilnehmer, der den digitalen Produktpass ausstellt oder aktualisiert, im Namen des betreffenden Akteurs eine eindeutige Kennung des Wirtschaftsteilnehmers und übermittelt diesem Akteur vollständige Angaben zur eindeutigen Kennung des Wirtschaftsteilnehmers (Art 12 Abs 2 Ökodesign-VO). Eine ähnliche Regulierung besteht in Bezug auf die &#039;&#039;&#039;eindeutige Kennung der Einrichtung&#039;&#039;&#039; (Anhang III Abs 1 lit i) (Art 12 Abs 3 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Literatur ==&lt;br /&gt;
&lt;br /&gt;
=== Einführungswerke ===&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;Nusser/Fehse&#039;&#039; (Hrsg), Das neue Ökodesign-Recht. Ökodesign-Verordnung für nachhaltige Produkte (2024, iE).&lt;br /&gt;
&lt;br /&gt;
=== Kommentare ===&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;Mittwoch/Weber&#039;&#039;, Ökodesign-Verordnung für nachhaltige Produkte. Ökodesign-VO (2025, iE).&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Links ==&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;Bundeskanzleramt&#039;&#039;, Ökodesign-Verordnung tritt in Kraft, https://www.bundeskanzleramt.gv.at/themen/europa-aktuell/2024/07/oekodesign-verordnung-tritt-in-kraft.html (Stand 18. 7. 2024).&lt;br /&gt;
* &#039;&#039;Europäische Kommission. Vertretung in Deutschland&#039;&#039;, Ökodesign-Verordnung: Neue Regeln für nachhaltige Produkte in Kraft, https://germany.representation.ec.europa.eu/news/okodesign-verordnung-neue-regeln-fur-nachhaltige-produkte-kraft-2024-07-19_de (19. Juli 2024).&lt;br /&gt;
*&#039;&#039;Industrie 4.0&#039;&#039;, Der Digitale Produktpass, https://plattformindustrie40.at/blog/2023/11/29/der-digitale-produktpass/. &lt;br /&gt;
*&#039;&#039;Linde&#039;&#039;, Am Punkt (Podcast) #210 – 3 Minuten Recht – Ökodesign-Verordnung, https://lindemedia.at/podcast/210-3-minuten-recht-oekodesign-verordnung (Stand 14. 8. 2024).&lt;br /&gt;
* &#039;&#039;Umwelt Bundesamt&#039;&#039;, Neue Ökodesign-Verordnung für nachhaltige Produkte tritt in Kraft, https://www.umweltbundesamt.de/themen/neue-oekodesign-verordnung-fuer-nachhaltige (Stand 3. 7 . 2024).&lt;br /&gt;
* &#039;&#039;Spiegel/Rohrßen&#039;&#039;, Die Ökodesign-Verordnung im Überblick, https://www.taylorwessing.com/de/insights-and-events/insights/2024/07/oekodesign-vo (Stand 25. 7. 2024).&lt;br /&gt;
* &#039;&#039;wbcsd&#039;&#039;, The EU Digital Product Passport (Stand 24. 1. 2024), https://www.wbcsd.org/resources/the-eu-digital-product-passport/. &lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, Die neue Ökodesign-Verordnung (ESPR), https://www.wko.at/energie/espr (Stand 8. 11. 2024).&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Ecodesign_for_Sustainable_Products_Regulation_(ESPR)&amp;diff=2090</id>
		<title>Ecodesign for Sustainable Products Regulation (ESPR)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Ecodesign_for_Sustainable_Products_Regulation_(ESPR)&amp;diff=2090"/>
		<updated>2025-01-25T09:25:52Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Einführung */ &amp;quot;dabei&amp;quot; hat nicht in den Satz gepasst (wobei?) -&amp;gt; durch &amp;quot;im Folgenden&amp;quot; ersetzt&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1781|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1781 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Schaffung eines Rahmens für die Festlegung von Ökodesign-Anforderungen für nachhaltige Produkte, zur Änderung der Richtlinie (EU) 2020/1828 und der Verordnung (EU) 2023/1542 und zur Aufhebung der Richtlinie 2009/125/EG|Kurztitel=Ecodesign Regulation/Ökodesign-Verordnung|Bezeichnung=|Rechtsmaterie=Umweltrecht|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1781, 1|Anzuwenden=31. Dezember 2026/2030 (mit Ausnahmen/Übergangsbestimmungen)|Gültig=inkraft}}&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht ==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
!Ziele&lt;br /&gt;
!Anwendungsbereich&lt;br /&gt;
!Inhalt&lt;br /&gt;
!Synergie&lt;br /&gt;
!Konsequenzen&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Ökodesign-VO will einen Rahmen für die Festlegung von &#039;&#039;&#039;Ökodesign-Anforderungen&#039;&#039;&#039;&amp;lt;ref&amp;gt;Ökodesign-Anforderung wird definiert als &amp;quot;eine Leistungs- oder Informationsanforderung, die darauf abzielt, ein Produkt, einschließlich der Prozesse, die entlang der gesamten Wertschöpfungskette des Produkts stattfinden, ökologisch nachhaltiger zu gestalten&amp;quot; (Art 2 Z 7 Ökodesign-VO).&amp;lt;/ref&amp;gt; für Produkte schaffen, um so ihre ökologische Nachhaltigkeit zu verbessern, damit nachhaltige Produkte zu Norm werden, der CO2-Fußabdruck und Umweltfußabdruck verringert wird und der freie Verkehr mit diesen Produkten sichergestellt wird (Art 1 Abs 1 Ökodesign-VO). &lt;br /&gt;
&lt;br /&gt;
Sekundär werden&lt;br /&gt;
&lt;br /&gt;
* ein digitaler &#039;&#039;&#039;Produktpass&#039;&#039;&#039; eingeführt&lt;br /&gt;
* verbindliche Anforderungen für die &#039;&#039;&#039;umweltorientierte Vergabe&#039;&#039;&#039; öffentlicher Aufträge eingeführt&lt;br /&gt;
* ein Rahmen geschaffen, um zu verhindern, dass &#039;&#039;&#039;unverkaufte Verbrauchsprodukte&#039;&#039;&#039; vernichtet werden.&lt;br /&gt;
Ökodesign wird als &amp;quot;die Einbeziehung von Erwägungen der ökologischen Nachhaltigkeit in die Merkmale eines Produkts und die Prozesse, die entlang der gesamten Wertschöpfungskette des Produkts stattfinden&amp;quot; definiert (Art 2 Z 6 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die folgenden Ausführungen geben &#039;&#039;&#039;&amp;lt;u&amp;gt;keinen&amp;lt;/u&amp;gt; vollständigen Überblick&#039;&#039;&#039; über die Ökodesign-VO, sondern konzentrieren sich im Sinne der Ausrichtung von ATLAWS auf Digitalisierungsrechakte insbesondere auf den digitalen Produktpass (Art 9-15 Ökodesign-VO) in Verbindung mit dem Anwendungsbereich (Art 1 Ökodesign-VO) und Informationen zu den Ökodesign-Anforderungen (Art 4-8 Ökodesign-VO), die für das Verständnis des Produktpasses notwendig sind.&lt;br /&gt;
&lt;br /&gt;
Dabei enthält die Ökodesign-VO jedoch noch eine Reihe von weiteren Abschnitten und Inhalten, bspw zu Governance durch Behörden, zum Konformitätsbewertungsverfahren sowie zur Regulierung/zum Verbot der Vernichtung unverkaufter Verbraucherprodukte, die in in dieser Ausarbeitung &amp;lt;u&amp;gt;nicht&amp;lt;/u&amp;gt; näher erläutert werden. Die in dieser Ausarbeitung bearbeiteten Abschnitte (Art 1-15) sind im Folgenden &#039;&#039;&#039;fett hervorgehoben&#039;&#039;&#039;: &lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Allgemeine Bestimmungen (Art 1-3 Ökodesign-VO)&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;Ökodesign-Anforderungen (Art 4-8 Ökodesign-VO)&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;Digitaler Produktpass (Art 9-15 Ökodesign-VO)&#039;&#039;&#039;&lt;br /&gt;
* Etiketten (Art 16-17 Ökodesign-VO)&lt;br /&gt;
* Priorisierung, Planung und Konsultation (Art 18-22 Ökodesign-VO)&lt;br /&gt;
* Vernichtung unverkaufter Verbraucherprodukte (Art 23-26 Ökodesign-VO)&lt;br /&gt;
* Pflichten der Wirtschaftsteilnehmer (Art 27-38 Ökodesign-VO)&lt;br /&gt;
* Produktkonformität (Art 39-47 Ökodesign-VO)&lt;br /&gt;
* Notifizierung von Konformitätsbewertungsstellen (Art 48-63 Ökodesign-VO)&lt;br /&gt;
* Anreize (Art 64-65 Ökodesign-VO)&lt;br /&gt;
* Marktüberwachung (Art 66-68 Ökodesign-VO)&lt;br /&gt;
* Schlutzklauselverfahren (Art 69-71 Ökodesign-VO)&lt;br /&gt;
* Übertragene Befugnisse und Ausschussverfahren (Art 72-73 Ökodesign-VO)&lt;br /&gt;
* Schlussbestimmungen (Art 74-80 Ökodesign-VO)&lt;br /&gt;
&lt;br /&gt;
== Anwendungsbereich ==&lt;br /&gt;
Die Ökodesign-VO gilt für &#039;&#039;&#039;alle physischen Waren&#039;&#039;&#039;, die in Verkehr gebracht&amp;lt;ref&amp;gt;&amp;quot;Inverkehrbringen&amp;quot; bezeichnet &amp;quot;die erstmalige Bereitstellung eines Produkts auf dem Unionsmarkt&amp;quot; (Art 2 Z 40 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
„Bereitstellung auf dem Markt“ bezeichnet &amp;quot;jede entgeltliche oder unentgeltliche Abgabe eines Produkts zum Vertrieb, Verbrauch oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit&amp;quot; (Art 2 Z 39 Ökodesign-VO).&amp;lt;/ref&amp;gt; oder in Betrieb genommen werden,&amp;lt;ref&amp;gt;&amp;quot;Inbetriebnahme&amp;quot; bezeichnet &amp;quot;die erstmalige bestimmungsgemäße Verwendung eines Produkts in der Union&amp;quot; (Art 2 Z 41 Ökodesign-VO).&amp;lt;/ref&amp;gt; einschließlich von Bauteilen&amp;lt;ref&amp;gt;Ein Produkt, das zum Einbau in ein anderes Produkt bestimmt ist (Art 2 Z 2 Ökodesign-VO).&amp;lt;/ref&amp;gt; und Zwischenprodukten&amp;lt;ref&amp;gt;Ein Produkt, das einer weiteren Handhabung oder Verarbeitung bedarf, um es für Endnutzer geeignet zu machen (Art 2 Z 3 Ökodesign-VO).&amp;lt;/ref&amp;gt; (Art 1 Abs 2 Ökodesign-VO). &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Ausnahmen&#039;&#039;&#039; bestehen für &lt;br /&gt;
&lt;br /&gt;
* Lebensmittel&lt;br /&gt;
* Futtermittel&lt;br /&gt;
* Arzneimittel&lt;br /&gt;
* Tierarzneimittel&lt;br /&gt;
* lebende Pflanzen, Tiere und Mikroorganismen&lt;br /&gt;
* Erzeugnisse menschlichen Ursprungs&lt;br /&gt;
* Erzeugnisse von Pflanzen und Tieren, die unmittelbar mit ihrer künftigen Reproduktion zusammenhängen&lt;br /&gt;
* Fahrzeuge&lt;br /&gt;
&lt;br /&gt;
== Materielle Aspekte ==&lt;br /&gt;
&lt;br /&gt;
=== Ökodesign-Anforderungen (Art 3-8 Ökodesign-VO) ===&lt;br /&gt;
&lt;br /&gt;
==== Allgemeines ====&lt;br /&gt;
Produkte dürfen dabei nur in Verkehr gebracht oder in Betrieb genommen werden, wenn sie die geltenden &#039;&#039;&#039;Ökodesign-Anforderungen&#039;&#039;&#039; erfüllen. Diese werden durch delegierte Rechtsakte gemäß Art 4 Ökodesign-VO festgelegt (Art 3 Abs 1 Ökodesign-VO). Die Anforderungen lassen sich dabei in &#039;&#039;&#039;Leistungsanforderungen&#039;&#039;&#039; und &#039;&#039;&#039;Informationsanforderungen&#039;&#039;&#039; unterscheiden (Art 5 Abs 9 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Befugnis zur Erlassung von &#039;&#039;&#039;delegierten Rechtsakten&#039;&#039;&#039; liegt dabei bei der Kommission (Art 4 Abs 1 Ökodesign-VO). Dabei ist den Wirtschaftsteilnehmern genügend Zeit zur Erfüllung der Ökodesign-Anforderungen einzuräumen und insbesondere den Bedürfnissen von KMU Rechnung zu tragen (Art 4 Abs 4 Ökodesign-VO). Bei Besonderheiten von Produktgruppen können auch &#039;&#039;&#039;zusätzliche Anforderungen&#039;&#039;&#039; durch delegierte Rechtsakte normiert werden (Art 4 Abs 6 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die &#039;&#039;&#039;Mindestinhalte&#039;&#039;&#039; der delegierten Rechtsakte werden dabei in Art 8 Ökodesign-VO festgelegt (bspw Definition der erfassten Produktgruppen, Ökodesign-Anforderungen, Prüf-, Mess- oder Berechnungsnormen oder -methoden).&lt;br /&gt;
&lt;br /&gt;
Die Ökodesign-Anforderungen in den delegierten Rechtsakten müssen auf der Grundlage von in Anhang I genannten Produktparametern so gestaltet sein, dass sie in Art 5 Abs 1 Ökodesign-VO gelistete &#039;&#039;&#039;Produktaspekte&#039;&#039;&#039; (bspw Nachrüstbarkeit, Reparierbarkeit, Energieverbrauch, Umweltauswirkungen) verbessern.&lt;br /&gt;
&lt;br /&gt;
Anhang I Ökodesign-VO listet dabei &#039;&#039;&#039;Produktparameter&#039;&#039;&#039;, dh Parameter, die als Grundlage für die Verbesserung der Produktaspekte herangezogen und bei Bedarf ergänzt werden können, bspw:&lt;br /&gt;
&lt;br /&gt;
* Indikatoren für Funktionsbeständigkeit und Zuverlässigkeit des Produkts oder seiner Bauteile: garantierte Lebensdauer des Produkts [...]&lt;br /&gt;
* Indikatoren für einfache Reparatur und Wartung: Merkmale, Verfügbarkeit, Lieferzeit und Erschwinglichkeit von Ersatzteilen [...]&lt;br /&gt;
Im Wege der Ökodesign-Anforderungen und der in Anhang I genannten Produktparameter soll sichergestellt werden, dass Produkte &#039;&#039;&#039;nicht vorzeitig obsolet&#039;&#039;&#039; werden (Art 5 Abs 2 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Anforderungen werden prinzipiell jeweils für bestimmte Produktgruppen festgelegt, wobei bspw bei Ähnlichkeiten von Produktgruppen horizontale Anforderungen möglich sind (Art 5 Abs 4, 6-8 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Ökodesign-Anforderungen müssen in Art 5 Abs 11 Ökodesign-VO genannte &#039;&#039;&#039;Kriterien&#039;&#039;&#039; erfüllen (zB darf es zu keinen nennenswerten nachteiligen Auswirkungen auf die Funktionsweise des Produktes oder für die Verbraucher in Bezug auf die Erschwinglichkeit kommen).&lt;br /&gt;
&lt;br /&gt;
==== Leistungsanforderungen (Art 6 Ökodesign-VO) ====&lt;br /&gt;
Produkte müssen einerseits Leistungsanforderungen erfüllen, die in delegierten Rechtsakten gemäß Art 4 Ökodesign-VO festgelegt sind (Art 6 Abs 1 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Leistungsanforderungen, die wiederum auf den Produktparametern nach Anhang I Ökodesign-VO beruhen, umfassen (gegebenenfalls) (Art 6 Abs 1 Ökodesign-VO):&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Mindest- oder Höchstwerte&#039;&#039;&#039; (in Bezug auf einen/mehrere Produktparameter)&lt;br /&gt;
* &#039;&#039;&#039;nicht quantitative Anforderungen&#039;&#039;&#039; zur Verbesserungen der Leistung (in Bezug auf einen/mehrere Produktparameter)&lt;br /&gt;
&lt;br /&gt;
==== Informationsanforderungen (Art 7 Ökodesign-VO) ====&lt;br /&gt;
Neben Leistungsanforderungen  müssen Produkte auch &#039;&#039;&#039;Informationsanforderungen&#039;&#039;&#039; erfüllen, die ebenfalls in delegierten Rechtsakten gem Art 5 Ökodesign-VO festgelegt sind (Art 7 Abs 1 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Diese Anforderungen müssen &#039;&#039;&#039;mindestens&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
* Anforderungen in Bezug auf den digitalen Produktpass und &lt;br /&gt;
* Anforderungen in Beug auf besorgniserregende Stoffe &lt;br /&gt;
&lt;br /&gt;
umfassen und klar, leicht verständlich und auf die besonderen Merkmale der betreffenden Produktgruppe sowie vorgesehenen Empfänger zugeschnitten (Art 7 Abs 2 Ökodesign-VO). &lt;br /&gt;
&lt;br /&gt;
Gegebenenfalls müssen auch &#039;&#039;&#039;weitere Informationen&#039;&#039;&#039; über die Leistung des Produkts, für Kunden und andere Akteure über die Installation, Nutzung, Wartung und Reparatur, etc beigefügt werden (Art 7 Abs 2 lit b Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Kommission kann bei Informationen über die Leistung des Produktes &#039;&#039;&#039;Leistungsklassen&#039;&#039;&#039; festlegen (Art 7 Abs 4 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Informationsanforderungen sollen dabei auch die &#039;&#039;&#039;Rückverfolgung von besorgniserregenden Stoffen&#039;&#039;&#039; ermöglichen (Art 7 Abs 5 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
In den Informationsanforderungen ist auch anzugeben, wie die Informationen zur Verfügung zu stellen sind. Diese sind primär, wenn verfügbar, im digitalen Produktpass anzugeben und erforderlichenfalls auch auf andere Art (auf dem Produkt selbst, auf der Verpackung, auf dem Etikett, in der Bedienungsanleitung, kostenfrei auf der Website) bereitzustellen (Art 7 Abs 7 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Informationen müssen in einer Sprache zur Verfügung gestellt werden, die von den Kunden &#039;&#039;&#039;leicht verstanden&#039;&#039;&#039; werden kann. Die Sprache wird vom MS festgelegt, auf dessen Markt das Produkt bereitgestellt in dem es in in Betrieb genommen werden soll (Art 7 Abs 8 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
=== Digitaler Produktpass (Art 9-15 Ökodesign-VO) ===&lt;br /&gt;
&lt;br /&gt;
==== Allgemeines (Art 9 Ökodesign-VO) ====&lt;br /&gt;
Als eine sog Informationsanforderung sieht die Ökodesign-VO vor, dass Produkte nur in Verkehr gebracht oder in Betrieb genommen werden dürfen, wenn ein digitaler Produktpass verfügbar ist (Art 9 Abs 1 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Der Begriff digitaler Produktpass bezeichnet dabei &amp;quot;einen produktspezifischen Datensatz&amp;quot;, Informationen enthält, die durch delegierten Rechtsakt festgelegt werden und der elektronisch über einen Datenträger&amp;lt;ref&amp;gt;&amp;quot;Datenträger&amp;quot; bezeichnet &amp;quot;einen Strichcode, ein zweidimensionales Symbol oder ein anderes automatisches Datenerfassungsmedium, das von einem Gerät gelesen werden kann&amp;quot; (Art 2 Z 29 Ökodesign-VO).&amp;lt;/ref&amp;gt; zugänglich ist (Art 2 Z 28 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Dieser Produktpass muss in Einklang mit den erlassenen delegierten Rechtsakten nach Art 4, 10, 11 Ökodesign-VO sein.&lt;br /&gt;
&lt;br /&gt;
Die Daten im Produktpass müssen dabei &#039;&#039;&#039;richtig&#039;&#039;&#039;, &#039;&#039;&#039;vollständig&#039;&#039;&#039; und auf dem &#039;&#039;&#039;neuesten Stand&#039;&#039;&#039; sein.&lt;br /&gt;
&lt;br /&gt;
Die konkrete Anforderungen an den Produktpass werden dabei durch delegierte Rechtsakte festgelegt. &lt;br /&gt;
&lt;br /&gt;
Art 9 Abs 2 Ökodesign-VO gibt hier, abhängig von der Produktgruppe, &#039;&#039;&#039;Mindestanforderungen&#039;&#039;&#039; vor. &#039;&#039;&#039;Anhang III&#039;&#039;&#039; Ökodesign-VO listet dabei Daten, die im Wege von delegierten Rechtsakten in den digitalen Produktpass aufgenommen werden können.&lt;br /&gt;
&lt;br /&gt;
Dadurch soll sichergestellt werden, dass die Akteure auf für sie relevante Produktinformationen umstandslos zugreifen und diese verstehen können, die Überprüfbarkeit der Produktkonformität durch die zuständigen nationalen Behörden erleichtert werde und die Rückverfolgbarkeit von Produkten entlang der Wertschöpfungskette verbessert werden (Art 9 Abs 3 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
Die Kommission kann dabei bestimmte Produktgruppe von der Anforderung, einen digitalen Produktpass zu haben, &#039;&#039;&#039;ausnehmen&#039;&#039;&#039; (Art 9 Abs 4 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
==== Anforderungen an den digitalen Produktpass (Art 10 Ökodesign-VO) ====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Art 10 Abs 1 Ökodesign-VO nennt &#039;&#039;&#039;grundlegende Bedingungen&#039;&#039;&#039;, die der Produktpass erfüllen muss. Er muss ua&lt;br /&gt;
&lt;br /&gt;
* über einen Datenträger mit einer dauerhaften eindeutigen Produktkennung verbunden sein&lt;br /&gt;
* der Datenträger muss auf dem Produkt, seiner Verpackung oder den dem Produkt beigefügten Unterlagen angebracht sein&lt;br /&gt;
* der Datenträger und die eindeutigen Produktkennungen müssen einer oder mehreren der in Anhang III Abs 2 Ökodesign-VO genannten Normen oder gleichwertigen europäischen oder internationalen Normen entsprechen&lt;br /&gt;
* alle im digitalen Produktpass enthaltenen Daten müssen auf offenen Standards beruhen, die in einem interoperablen Format entwickelt wurden. Die Daten müssen gegebenenfalls maschinenlesbar, strukturiert und durchsuchbar sein und über ein offenes interoperables Datenaustauschnetz ohne Anbieterbindung übertragen werden können. Grundlegende Anforderungen werden neben Art 10 in Art 11 Ökodesign-VO festgelegt.&lt;br /&gt;
* personenbezogene Daten, die sich auf Kunden beziehen, dürfen nicht ohne deren ausdrückliche Einwilligung im Einklang mit Art 6 DSGVO im Produktpass gespeichert werden&lt;br /&gt;
* die im Produktpass enthaltenen Daten beziehen sich auf das Produktmodell, die Produktcharge/den Artikel&lt;br /&gt;
* der Zugang zu den im Produktpass enthaltenen Informationen wird - im Einklang mit Art 10, 11 Ökodesign-VO - durch delegierte Rechtsakte geregelt&lt;br /&gt;
&lt;br /&gt;
==== Technische Gestaltung und Einsatz des digitalen Produktpasses (Art 11 Ökodesign-VO) ====&lt;br /&gt;
Art 11 Ökodesign-VO listet Anforderungen an die technische Gestaltung und den Einsatz des digitalen Produktpasses.&lt;br /&gt;
&lt;br /&gt;
Die wichtigsten Anforderungen bestehen in Bezug auf&lt;br /&gt;
&lt;br /&gt;
* Interoperabilität mit anderen digitalen Produktpässen (in Bezug auf die technischen, semantischen und organisatorischen Aspekte der Ende-zu-Ende-Kommunikation und der Datenübertragung)&lt;br /&gt;
* kostenloser und einfacher Zugang zum digitalen Produktpass (auf der Grundlage der jeweiligen Zugangsrechte der Akteure)&lt;br /&gt;
* Speicherung des digitalen Produktpasses (von dem für die Ausstellung verantwortlichen Wirtschaftsteilnehmer/unabhängigen Digitalproduktpass-Dienstleister)&lt;br /&gt;
* Verfügbarkeit des digitalen Produktpasses über einen durch delegierten Rechtsakt festgelegten Zeitraum &lt;br /&gt;
* Einschränkung des Rechtes auf Eingabe, Änderung, Aktualisierung von Daten auf der Grundlage der Zugangsrechte &lt;br /&gt;
* Gewährleistung der Authentizität, Zuverlässigkeit und Integrität der Daten&lt;br /&gt;
* Gewährleistung eines hohen Maßes an Sicherheit und Privatsphäre, Vermeidung von Betrug &lt;br /&gt;
&lt;br /&gt;
==== Eindeutige Kennung (Art 12 Ökodesign-VO) ====&lt;br /&gt;
Zunächst normiert Art 12 Abs 1 Ökodesign-VO, dass die eindeutigen Kennungen der Wirtschaftsteilnehmer (Anhang III Abs1 lit g und h ) und die eindeutigen Kennungen der Einrichtungen (Anhang III Abs 1 lt i) den in Anhang III Abs 1 lit c und Anhang III Abs 2 &#039;&#039;&#039;genannten Normen&#039;&#039;&#039;&amp;lt;ref&amp;gt;&amp;quot;GTIN (Global Trade Identification Number) gemäß der Norm ISO/IEC 15459-6 der Internationalen Organisation für Normung bzw. der Internationalen Elektrotechnischen Kommission oder eine gleichwertige Kennung von Produkten oder Teilen davon&amp;quot;; &amp;quot;Datenträger, die in Buchstabe b genannte eindeutige Produktkennung, die unter den Buchstaben g, h und k genannten eindeutigen Kennungen der Wirtschaftsteilnehmer und die unter Buchstabe i genannten eindeutigen Kennungen der Einrichtungen müssen, soweit für die betreffenden Produkte relevant, den ISO/IEC-Normen 15459-1:2014, 15459-2:2015, 15459-3:2014, 15459-4:2014, 15459-5:2014 und 15459-6:2014 entsprechen&amp;quot;.&amp;lt;/ref&amp;gt; oder gleichwertigen europäischen oder internationalen Normen entsprechen müssen. Dies jedoch nur bis zu dem Zeitpunkt, bis die Fundstellen harmonisierter Normen im Amtsblatt der Europäischen Union veröffentlicht werden.&lt;br /&gt;
&lt;br /&gt;
Steht noch keine eindeutige &#039;&#039;&#039;Kennung des Wirtschaftsteilnehmers&#039;&#039;&#039; (Anhang III Abs 1 lit h) zur Verfügung, so beantragt der Wirtschaftsteilnehmer, der den digitalen Produktpass ausstellt oder aktualisiert, im Namen des betreffenden Akteurs eine eindeutige Kennung des Wirtschaftsteilnehmers und übermittelt diesem Akteur vollständige Angaben zur eindeutigen Kennung des Wirtschaftsteilnehmers (Art 12 Abs 2 Ökodesign-VO). Eine ähnliche Regulierung besteht in Bezug auf die &#039;&#039;&#039;eindeutige Kennung der Einrichtung&#039;&#039;&#039; (Anhang III Abs 1 lit i) (Art 12 Abs 3 Ökodesign-VO).&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Literatur ==&lt;br /&gt;
&lt;br /&gt;
=== Einführungswerke ===&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;Nusser/Fehse&#039;&#039; (Hrsg), Das neue Ökodesign-Recht. Ökodesign-Verordnung für nachhaltige Produkte (2024, iE).&lt;br /&gt;
&lt;br /&gt;
=== Kommentare ===&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;Mittwoch/Weber&#039;&#039;, Ökodesign-Verordnung für nachhaltige Produkte. Ökodesign-VO (2025, iE).&lt;br /&gt;
&lt;br /&gt;
== Weiterführende Links ==&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;Bundeskanzleramt&#039;&#039;, Ökodesign-Verordnung tritt in Kraft, https://www.bundeskanzleramt.gv.at/themen/europa-aktuell/2024/07/oekodesign-verordnung-tritt-in-kraft.html (Stand 18. 7. 2024).&lt;br /&gt;
* &#039;&#039;Europäische Kommission. Vertretung in Deutschland&#039;&#039;, Ökodesign-Verordnung: Neue Regeln für nachhaltige Produkte in Kraft, https://germany.representation.ec.europa.eu/news/okodesign-verordnung-neue-regeln-fur-nachhaltige-produkte-kraft-2024-07-19_de (19. Juli 2024).&lt;br /&gt;
*&#039;&#039;Industrie 4.0&#039;&#039;, Der Digitale Produktpass, https://plattformindustrie40.at/blog/2023/11/29/der-digitale-produktpass/. &lt;br /&gt;
*&#039;&#039;Linde&#039;&#039;, Am Punkt (Podcast) #210 – 3 Minuten Recht – Ökodesign-Verordnung, https://lindemedia.at/podcast/210-3-minuten-recht-oekodesign-verordnung (Stand 14. 8. 2024).&lt;br /&gt;
* &#039;&#039;Umwelt Bundesamt&#039;&#039;, Neue Ökodesign-Verordnung für nachhaltige Produkte tritt in Kraft, https://www.umweltbundesamt.de/themen/neue-oekodesign-verordnung-fuer-nachhaltige (Stand 3. 7 . 2024).&lt;br /&gt;
* &#039;&#039;Spiegel/Rohrßen&#039;&#039;, Die Ökodesign-Verordnung im Überblick, https://www.taylorwessing.com/de/insights-and-events/insights/2024/07/oekodesign-vo (Stand 25. 7. 2024).&lt;br /&gt;
* &#039;&#039;wbcsd&#039;&#039;, The EU Digital Product Passport (Stand 24. 1. 2024), https://www.wbcsd.org/resources/the-eu-digital-product-passport/. &lt;br /&gt;
* &#039;&#039;WKO&#039;&#039;, Die neue Ökodesign-Verordnung (ESPR), https://www.wko.at/energie/espr (Stand 8. 11. 2024).&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1892</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1892"/>
		<updated>2025-01-22T09:03:26Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Kurzübersicht */ (vorläufig) entfernt&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Dies führte dazu, dass elektronische Identifizierungssysteme nicht in allen Mitgliedstaaten gleichermaßen zur Verfügung standen und ihre Verbreitung teilweise gering blieb, insbesondere in Bezug auf die Verwendung im privaten Sektor.&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/eudi-regulation Europäische Kommission, Verordnung über die europäische digitale Identität (EUDI)]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um diese Mängel zu beheben, wurde eine umfangreiche Novellierung der eIDAS-VO erarbeitet – bekannt als eIDAS 2.0 – die am 20. Mai 2024 in Kraft trat. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Wegen ihrer hohen Anzahl kann auf diese hier nicht näher eingegangen werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. Betreffend die EUDIW waren mit Stand Jahresende 2024 einzelne Durchführungsverordnungen der Kommission schon verabschiedet, andere befanden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt; In den Entwürfen zeichnete sich zuletzt eine Aufweichung der unten beschriebenen Datenschutz- und Datensicherheitsmaßnahmen des EUDIW ab, sodass diese Gegenstand intensiver politischer Diskussionen sind.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde zu erstatten, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss das Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Insbesondere zu diesen Aspekten zeichnete sich zuletzt in der betreffenden Durchführungsverordnung eine Aufweichung ab, deren Zulässigkeit angesichts der soeben wiedergegeben Bestimmungen der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; Die Verabschiedung der finalen Durchführungsverordnung ist für das 1. Quartal 2025 angekündigt.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/14399-Brieftaschen-fur-die-europaische-digitale-Identitat-Registrierung-vertrauender-Beteiligter_de Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Brieftaschen für die europäische digitale Identität – Registrierung vertrauender Beteiligter]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 eIDAS-VO als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert und standardmäßig verwendet, erkennbar an der Präfix &amp;quot;https&amp;quot; in der URL-Zeile des Browsers und dem daneben angezeigten stilisierten Schloss. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte diesbezüglich jedoch eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://netzpolitik.org/2023/eidas-reform-schlagabtausch-zwischen-forschenden-und-eu-parlament/ &#039;&#039;Leisegang&#039;&#039;, Schlagabtausch zwischen Forschenden und EU-Parlament, Netzpolitik.org, 07.12.2023]&amp;lt;/ref&amp;gt; Als Kompromisslösung wurde daher in Art 45a Abs 2 eIDAS-VO klargestellt, dass Anbieter von Webbrowsern in Fällen begründeter Bedenken hinsichtlich Sicherheitsverletzungen oder eines Integritätsverlusts eines bestimmten Zertifikats oder eines Satzes von Zertifikaten Vorsorgemaßnahmen in Bezug auf dieses Zertifikat oder diesen Satz von Zertifikaten ergreifen können und die Kommission hielt in einer förmlichen Erklärung fest, dass Art 45 eIDAS-VO Anbietern von Webbrowsern keine Verpflichtungen und Einschränkungen hinsichtlich der Gewährleistung vertraulicher Online-Kommunikation auferlege.&amp;lt;ref&amp;gt;[https://netzpolitik.org/2024/eidas-reform-eu-parlament-stimmt-fuer-digitale-brieftasche/ &#039;&#039;Leisegang&#039;&#039;, EU-Parlament stimmt für digitale Brieftasche, Netzpolitik.org, 29.02.2024]&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://www.europarl.europa.eu/doceo/document/A-9-2023-0038-AM-007-007_EN.pdf Statement by the Commission on Article 45 on the occasion of the adoption of Regulation 2024/...]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Archivierungsdienste ===&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Journale (electronic ledgers) ===&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Wie oben dargestellt, enthält die eIDAS-VO zahlreiche Bestimmungen, um die Einhaltung der Datenschutzgrundsätze, insbesondere des Grundsatzes der Datenminimierung, in Bezug auf das EUDIW sicherzustellen. Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; [https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32016R0679 DSGVO (Datenschutz-Grundverordnung)] gilt. Die beiden Verordnungen stehen somit grundsätzlich nebeneinander. Eindeutig ist die Rechtslage dahingehend, dass die Durchführungsrechtsakte zur eIDAS-VO den Bestimmungen der DSGVO nicht widersprechen dürfen und dass vertrauende Beteiligte in ihrem Umgang mit den EUDIW-Nutzern und mit deren Daten nicht nur die Bestimmungen der eIDAS-VO, sondern auch die Bestimmungen der DSGVO einhalten müssen.&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1862</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1862"/>
		<updated>2025-01-21T10:18:21Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Verhältnis zu anderen Rechtsakten */ Verhältnis zur DSGVO&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht == &lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Dies führte dazu, dass elektronische Identifizierungssysteme nicht in allen Mitgliedstaaten gleichermaßen zur Verfügung standen und ihre Verbreitung teilweise gering blieb, insbesondere in Bezug auf die Verwendung im privaten Sektor.&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/eudi-regulation Europäische Kommission, Verordnung über die europäische digitale Identität (EUDI)]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um diese Mängel zu beheben, wurde eine umfangreiche Novellierung der eIDAS-VO erarbeitet – bekannt als eIDAS 2.0 – die am 20. Mai 2024 in Kraft trat. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Wegen ihrer hohen Anzahl kann auf diese hier nicht näher eingegangen werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. Betreffend die EUDIW waren mit Stand Jahresende 2024 einzelne Durchführungsverordnungen der Kommission schon verabschiedet, andere befanden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt; In den Entwürfen zeichnete sich zuletzt eine Aufweichung der unten beschriebenen Datenschutz- und Datensicherheitsmaßnahmen des EUDIW ab, sodass diese Gegenstand intensiver politischer Diskussionen sind.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde zu erstatten, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss das Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Insbesondere zu diesen Aspekten zeichnete sich zuletzt in der betreffenden Durchführungsverordnung eine Aufweichung ab, deren Zulässigkeit angesichts der soeben wiedergegeben Bestimmungen der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; Die Verabschiedung der finalen Durchführungsverordnung ist für das 1. Quartal 2025 angekündigt.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/14399-Brieftaschen-fur-die-europaische-digitale-Identitat-Registrierung-vertrauender-Beteiligter_de Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Brieftaschen für die europäische digitale Identität – Registrierung vertrauender Beteiligter]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 eIDAS-VO als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert und standardmäßig verwendet, erkennbar an der Präfix &amp;quot;https&amp;quot; in der URL-Zeile des Browsers und dem daneben angezeigten stilisierten Schloss. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte diesbezüglich jedoch eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://netzpolitik.org/2023/eidas-reform-schlagabtausch-zwischen-forschenden-und-eu-parlament/ &#039;&#039;Leisegang&#039;&#039;, Schlagabtausch zwischen Forschenden und EU-Parlament, Netzpolitik.org, 07.12.2023]&amp;lt;/ref&amp;gt; Als Kompromisslösung wurde daher in Art 45a Abs 2 eIDAS-VO klargestellt, dass Anbieter von Webbrowsern in Fällen begründeter Bedenken hinsichtlich Sicherheitsverletzungen oder eines Integritätsverlusts eines bestimmten Zertifikats oder eines Satzes von Zertifikaten Vorsorgemaßnahmen in Bezug auf dieses Zertifikat oder diesen Satz von Zertifikaten ergreifen können und die Kommission hielt in einer förmlichen Erklärung fest, dass Art 45 eIDAS-VO Anbietern von Webbrowsern keine Verpflichtungen und Einschränkungen hinsichtlich der Gewährleistung vertraulicher Online-Kommunikation auferlege.&amp;lt;ref&amp;gt;[https://netzpolitik.org/2024/eidas-reform-eu-parlament-stimmt-fuer-digitale-brieftasche/ &#039;&#039;Leisegang&#039;&#039;, EU-Parlament stimmt für digitale Brieftasche, Netzpolitik.org, 29.02.2024]&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://www.europarl.europa.eu/doceo/document/A-9-2023-0038-AM-007-007_EN.pdf Statement by the Commission on Article 45 on the occasion of the adoption of Regulation 2024/...]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Archivierungsdienste ===&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Journale (electronic ledgers) ===&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Wie oben dargestellt, enthält die eIDAS-VO zahlreiche Bestimmungen, um die Einhaltung der Datenschutzgrundsätze, insbesondere des Grundsatzes der Datenminimierung, in Bezug auf das EUDIW sicherzustellen. Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; [https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32016R0679 DSGVO (Datenschutz-Grundverordnung)] gilt. Die beiden Verordnungen stehen somit grundsätzlich nebeneinander. Eindeutig ist die Rechtslage dahingehend, dass die Durchführungsrechtsakte zur eIDAS-VO den Bestimmungen der DSGVO nicht widersprechen dürfen und dass vertrauende Beteiligte in ihrem Umgang mit den EUDIW-Nutzern und mit deren Daten nicht nur die Bestimmungen der eIDAS-VO, sondern auch die Bestimmungen der DSGVO einhalten müssen.&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1854</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1854"/>
		<updated>2025-01-21T08:54:21Z</updated>

		<summary type="html">&lt;p&gt;Walter: Kleine sprachliche Korrekturen und Verbesserungen&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht == &lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Dies führte dazu, dass elektronische Identifizierungssysteme nicht in allen Mitgliedstaaten gleichermaßen zur Verfügung standen und ihre Verbreitung teilweise gering blieb, insbesondere in Bezug auf die Verwendung im privaten Sektor.&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/eudi-regulation Europäische Kommission, Verordnung über die europäische digitale Identität (EUDI)]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um diese Mängel zu beheben, wurde eine umfangreiche Novellierung der eIDAS-VO erarbeitet – bekannt als eIDAS 2.0 – die am 20. Mai 2024 in Kraft trat. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Wegen ihrer hohen Anzahl kann auf diese hier nicht näher eingegangen werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. Betreffend die EUDIW waren mit Stand Jahresende 2024 einzelne Durchführungsverordnungen der Kommission schon verabschiedet, andere befanden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt; In den Entwürfen zeichnete sich zuletzt eine Aufweichung der unten beschriebenen Datenschutz- und Datensicherheitsmaßnahmen des EUDIW ab, sodass diese Gegenstand intensiver politischer Diskussionen sind.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde zu erstatten, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss das Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Insbesondere zu diesen Aspekten zeichnete sich zuletzt in der betreffenden Durchführungsverordnung eine Aufweichung ab, deren Zulässigkeit angesichts der soeben wiedergegeben Bestimmungen der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; Die Verabschiedung der finalen Durchführungsverordnung ist für das 1. Quartal 2025 angekündigt.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/14399-Brieftaschen-fur-die-europaische-digitale-Identitat-Registrierung-vertrauender-Beteiligter_de Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Brieftaschen für die europäische digitale Identität – Registrierung vertrauender Beteiligter]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 eIDAS-VO als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert und standardmäßig verwendet, erkennbar an der Präfix &amp;quot;https&amp;quot; in der URL-Zeile des Browsers und dem daneben angezeigten stilisierten Schloss. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte diesbezüglich jedoch eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://netzpolitik.org/2023/eidas-reform-schlagabtausch-zwischen-forschenden-und-eu-parlament/ &#039;&#039;Leisegang&#039;&#039;, Schlagabtausch zwischen Forschenden und EU-Parlament, Netzpolitik.org, 07.12.2023]&amp;lt;/ref&amp;gt; Als Kompromisslösung wurde daher in Art 45a Abs 2 eIDAS-VO klargestellt, dass Anbieter von Webbrowsern in Fällen begründeter Bedenken hinsichtlich Sicherheitsverletzungen oder eines Integritätsverlusts eines bestimmten Zertifikats oder eines Satzes von Zertifikaten Vorsorgemaßnahmen in Bezug auf dieses Zertifikat oder diesen Satz von Zertifikaten ergreifen können und die Kommission hielt in einer förmlichen Erklärung fest, dass Art 45 eIDAS-VO Anbietern von Webbrowsern keine Verpflichtungen und Einschränkungen hinsichtlich der Gewährleistung vertraulicher Online-Kommunikation auferlege.&amp;lt;ref&amp;gt;[https://netzpolitik.org/2024/eidas-reform-eu-parlament-stimmt-fuer-digitale-brieftasche/ &#039;&#039;Leisegang&#039;&#039;, EU-Parlament stimmt für digitale Brieftasche, Netzpolitik.org, 29.02.2024]&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://www.europarl.europa.eu/doceo/document/A-9-2023-0038-AM-007-007_EN.pdf Statement by the Commission on Article 45 on the occasion of the adoption of Regulation 2024/...]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Archivierungsdienste ===&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Journale (electronic ledgers) ===&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; DSGVO gilt. Dies ist so zu verstehen, dass ...&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1853</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1853"/>
		<updated>2025-01-21T08:36:27Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Elektronische Identifizierung */ kleine Ausbesserungen&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht == &lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Dies führte dazu, dass elektronische Identifizierungssysteme nicht in allen Mitgliedstaaten gleichermaßen zur Verfügung standen und ihre Verbreitung teilweise gering blieb, insbesondere in Bezug auf die Verwendung im privaten Sektor.&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/eudi-regulation Europäische Kommission, Verordnung über die europäische digitale Identität (EUDI)]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um diese Mängel zu beheben, wurde eine umfangreiche Novellierung der eIDAS-VO erarbeitet – bekannt als eIDAS 2.0 – die am 20. Mai 2024 in Kraft trat. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Wegen ihrer hohen Anzahl kann auf diese hier nicht näher eingegangen werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. Betreffend die EUDIW waren mit Stand Jahresende 2024 einzelne Durchführungsverordnungen der Kommission schon verabschiedet, andere befanden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt; In den Entwürfen zeichnete sich zuletzt eine Aufweichung der unten beschriebenen Datenschutz- und Datensicherheitsmaßnahmen des EUDIW ab, sodass diese Gegenstand intensiver politischer Diskussionen sind.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde zu erstatten, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Insbesondere zu diesen Aspekten zeichnete sich zuletzt in der betreffenden Durchführungsverordnung eine Aufweichung ab, deren Zulässigkeit angesichts der soeben wiedergegeben Bestimmungen der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; Die Verabschiedung der finalen Durchführungsverordnung ist für das 1. Quartal 2025 angekündigt.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/14399-Brieftaschen-fur-die-europaische-digitale-Identitat-Registrierung-vertrauender-Beteiligter_de Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Brieftaschen für die europäische digitale Identität – Registrierung vertrauender Beteiligter]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen, dass hier ausführliche Anforderungen definiert werden, ....&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert und standardmäßig verwendet, erkennbar an der Präfix &amp;quot;https&amp;quot; in der URL-Zeile des Browsers und dem daneben angezeigten stilisierten Schloss. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte diesbezüglich jedoch eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://netzpolitik.org/2023/eidas-reform-schlagabtausch-zwischen-forschenden-und-eu-parlament/ &#039;&#039;Leisegang&#039;&#039;, Schlagabtausch zwischen Forschenden und EU-Parlament, Netzpolitik.org, 07.12.2023]&amp;lt;/ref&amp;gt; Als Kompromisslösung wurde daher in Art 45a Abs 2 eIDAS-VO klargestellt, dass Anbieter von Webbrowsern in Fällen begründeter Bedenken hinsichtlich Sicherheitsverletzungen oder eines Integritätsverlusts eines bestimmten Zertifikats oder eines Satzes von Zertifikaten Vorsorgemaßnahmen in Bezug auf dieses Zertifikat oder diesen Satz von Zertifikaten ergreifen können und die Kommission hielt in einer förmlichen Erklärung fest, dass Art 45 eIDAS-VO Anbietern von Webbrowsern keine Verpflichtungen und Einschränkungen hinsichtlich der Gewährleistung vertraulicher Online-Kommunikation auferlege.&amp;lt;ref&amp;gt;[https://netzpolitik.org/2024/eidas-reform-eu-parlament-stimmt-fuer-digitale-brieftasche/ &#039;&#039;Leisegang&#039;&#039;, EU-Parlament stimmt für digitale Brieftasche, Netzpolitik.org, 29.02.2024]&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://www.europarl.europa.eu/doceo/document/A-9-2023-0038-AM-007-007_EN.pdf Statement by the Commission on Article 45 on the occasion of the adoption of Regulation 2024/...]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Archivierungsdienste ===&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Journale (electronic ledgers) ===&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; DSGVO gilt. Dies ist so zu verstehen, dass ...&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1843</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1843"/>
		<updated>2025-01-20T12:48:31Z</updated>

		<summary type="html">&lt;p&gt;Walter: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht == &lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Dies führte dazu, dass elektronische Identifizierungssysteme nicht in allen Mitgliedstaaten gleichermaßen zur Verfügung standen und ihre Verbreitung teilweise gering blieb, insbesondere in Bezug auf die Verwendung im privaten Sektor.&amp;lt;ref&amp;gt;[https://digital-strategy.ec.europa.eu/de/policies/eudi-regulation Europäische Kommission, Verordnung über die europäische digitale Identität (EUDI)]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um diese Mängel zu beheben, wurde eine umfangreiche Novellierung der eIDAS-VO erarbeitet – bekannt als eIDAS 2.0 – die am 20. Mai 2024 in Kraft trat. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Wegen dieser hohen Anzahl kann auf diese hier nicht näher eingegangen werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. Betreffend die EUDIW waren mit Stand Jahresende 2024 einzelne Durchführungsverordnungen der Kommission schon verabschiedet, andere befanden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt; In den Entwürfen zeichnete sich zuletzt eine Aufweichung der unten beschriebenen Datenschutz- und Datensicherheitsmaßnahmen des EUDIW ab, sodass diese Gegenstand intensiver politischer Diskussionen sind.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Insbesondere zu diesen Aspekten zeichnete sich zuletzt in der betreffenden Durchführungsverordnung eine Aufweichung ab, deren Zulässigkeit angesichts der soeben wiedergegeben Bestimmungen der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; Die Verabschiedung der finalen Durchführungsverordnung ist für das 1. Quartal 2025 angekündigt.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/14399-Brieftaschen-fur-die-europaische-digitale-Identitat-Registrierung-vertrauender-Beteiligter_de Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Brieftaschen für die europäische digitale Identität – Registrierung vertrauender Beteiligter]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen, dass hier ausführliche Anforderungen definiert werden, ....&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert und standardmäßig verwendet, erkennbar an der Präfix &amp;quot;https&amp;quot; in der URL-Zeile des Browsers und dem daneben angezeigten stilisierten Schloss. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte diesbezüglich jedoch eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://netzpolitik.org/2023/eidas-reform-schlagabtausch-zwischen-forschenden-und-eu-parlament/ &#039;&#039;Leisegang&#039;&#039;, Schlagabtausch zwischen Forschenden und EU-Parlament, Netzpolitik.org, 07.12.2023]&amp;lt;/ref&amp;gt; Als Kompromisslösung wurde daher in Art 45a Abs 2 eIDAS-VO klargestellt, dass Anbieter von Webbrowsern in Fällen begründeter Bedenken hinsichtlich Sicherheitsverletzungen oder eines Integritätsverlusts eines bestimmten Zertifikats oder eines Satzes von Zertifikaten Vorsorgemaßnahmen in Bezug auf dieses Zertifikat oder diesen Satz von Zertifikaten ergreifen können und die Kommission hielt in einer förmlichen Erklärung fest, dass Art 45 eIDAS-VO Anbietern von Webbrowsern keine Verpflichtungen und Einschränkungen hinsichtlich der Gewährleistung vertraulicher Online-Kommunikation auferlege.&amp;lt;ref&amp;gt;[https://netzpolitik.org/2024/eidas-reform-eu-parlament-stimmt-fuer-digitale-brieftasche/ &#039;&#039;Leisegang&#039;&#039;, EU-Parlament stimmt für digitale Brieftasche, Netzpolitik.org, 29.02.2024]&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://www.europarl.europa.eu/doceo/document/A-9-2023-0038-AM-007-007_EN.pdf Statement by the Commission on Article 45 on the occasion of the adoption of Regulation 2024/...]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Archivierungsdienste ===&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Journale (electronic ledgers) ===&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; DSGVO gilt. Dies ist so zu verstehen, dass ...&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1842</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1842"/>
		<updated>2025-01-20T12:45:49Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Website-Authentifizierung */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht == &lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Dies führte dazu, dass elektronische Identifizierungssysteme nicht in allen Mitgliedstaaten gleichermaßen zur Verfügung standen und ihre Verbreitung teilweise gering blieb, insbesondere in Bezug auf die Verwendung im privaten Sektor.&amp;lt;ref&amp;gt;Europäische Kommission, Verordnung über die europäische digitale Identität (EUDI)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um diese Mängel zu beheben, wurde eine umfangreiche Novellierung der eIDAS-VO erarbeitet – bekannt als eIDAS 2.0 – die am 20. Mai 2024 in Kraft trat. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Wegen dieser hohen Anzahl kann auf diese hier nicht näher eingegangen werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. Betreffend die EUDIW waren mit Stand Jahresende 2024 einzelne Durchführungsverordnungen der Kommission schon verabschiedet, andere befanden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt; In den Entwürfen zeichnete sich zuletzt eine Aufweichung der unten beschriebenen Datenschutz- und Datensicherheitsmaßnahmen des EUDIW ab, sodass diese Gegenstand intensiver politischer Diskussionen sind.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Insbesondere zu diesen Aspekten zeichnete sich zuletzt in der betreffenden Durchführungsverordnung eine Aufweichung ab, deren Zulässigkeit angesichts der soeben wiedergegeben Bestimmungen der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; Die Verabschiedung der finalen Durchführungsverordnung ist für das 1. Quartal 2025 angekündigt.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/14399-Brieftaschen-fur-die-europaische-digitale-Identitat-Registrierung-vertrauender-Beteiligter_de Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Brieftaschen für die europäische digitale Identität – Registrierung vertrauender Beteiligter]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen, dass hier ausführliche Anforderungen definiert werden, ....&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert und standardmäßig verwendet, erkennbar an der Präfix &amp;quot;https&amp;quot; in der URL-Zeile des Browsers und dem daneben angezeigten stilisierten Schloss. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte diesbezüglich jedoch eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://netzpolitik.org/2023/eidas-reform-schlagabtausch-zwischen-forschenden-und-eu-parlament/ &#039;&#039;Leisegang&#039;&#039;, Schlagabtausch zwischen Forschenden und EU-Parlament, Netzpolitik.org, 07.12.2023]&amp;lt;/ref&amp;gt; Als Kompromisslösung wurde daher in Art 45a Abs 2 eIDAS-VO klargestellt, dass Anbieter von Webbrowsern in Fällen begründeter Bedenken hinsichtlich Sicherheitsverletzungen oder eines Integritätsverlusts eines bestimmten Zertifikats oder eines Satzes von Zertifikaten Vorsorgemaßnahmen in Bezug auf dieses Zertifikat oder diesen Satz von Zertifikaten ergreifen können und die Kommission hielt in einer förmlichen Erklärung fest, dass Art 45 eIDAS-VO Anbietern von Webbrowsern keine Verpflichtungen und Einschränkungen hinsichtlich der Gewährleistung vertraulicher Online-Kommunikation auferlege.&amp;lt;ref&amp;gt;[https://netzpolitik.org/2024/eidas-reform-eu-parlament-stimmt-fuer-digitale-brieftasche/ &#039;&#039;Leisegang&#039;&#039;, EU-Parlament stimmt für digitale Brieftasche, Netzpolitik.org, 29.02.2024]&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://www.europarl.europa.eu/doceo/document/A-9-2023-0038-AM-007-007_EN.pdf Statement by the Commission on Article 45 on the occasion of the adoption of Regulation 2024/...]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Archivierungsdienste ===&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Journale (electronic ledgers) ===&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; DSGVO gilt. Dies ist so zu verstehen, dass ...&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1840</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1840"/>
		<updated>2025-01-20T12:28:24Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Website-Authentifizierung */ Klarstellungs des Ausgangs der Diskussion betreffend die Gefahren einer Verpflichtung der Browserhersteller, die Zertifikate zu akzeptieren (Entschärfung, Art 45a)&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht == &lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Dies führte dazu, dass elektronische Identifizierungssysteme nicht in allen Mitgliedstaaten gleichermaßen zur Verfügung standen und ihre Verbreitung teilweise gering blieb, insbesondere in Bezug auf die Verwendung im privaten Sektor.&amp;lt;ref&amp;gt;Europäische Kommission, Verordnung über die europäische digitale Identität (EUDI)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um diese Mängel zu beheben, wurde eine umfangreiche Novellierung der eIDAS-VO erarbeitet – bekannt als eIDAS 2.0 – die am 20. Mai 2024 in Kraft trat. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Wegen dieser hohen Anzahl kann auf diese hier nicht näher eingegangen werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. Betreffend die EUDIW waren mit Stand Jahresende 2024 einzelne Durchführungsverordnungen der Kommission schon verabschiedet, andere befanden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt; In den Entwürfen zeichnete sich zuletzt eine Aufweichung der unten beschriebenen Datenschutz- und Datensicherheitsmaßnahmen des EUDIW ab, sodass diese Gegenstand intensiver politischer Diskussionen sind.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Insbesondere zu diesen Aspekten zeichnete sich zuletzt in der betreffenden Durchführungsverordnung eine Aufweichung ab, deren Zulässigkeit angesichts der soeben wiedergegeben Bestimmungen der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; Die Verabschiedung der finalen Durchführungsverordnung ist für das 1. Quartal 2025 angekündigt.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/14399-Brieftaschen-fur-die-europaische-digitale-Identitat-Registrierung-vertrauender-Beteiligter_de Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Brieftaschen für die europäische digitale Identität – Registrierung vertrauender Beteiligter]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen, dass hier ausführliche Anforderungen definiert werden, ....&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert und standardmäßig verwendet, erkennbar an der Präfix &amp;quot;https&amp;quot; in der URL-Zeile des Browsers und dem daneben angezeigten stilisierten Schloss. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte jedoch in diesem Bereich eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://netzpolitik.org/2023/eidas-reform-schlagabtausch-zwischen-forschenden-und-eu-parlament/ &#039;&#039;Leisegang&#039;&#039;, Schlagabtausch zwischen Forschenden und EU-Parlament, Netzpolitik.org, 07.12.2023]&amp;lt;/ref&amp;gt; Als Kompromisslösung wurde daher in Art 45a Abs 2 eIDAS-VO klargestellt, dass Anbieter von Webbrowsern in Fällen begründeter Bedenken hinsichtlich Sicherheitsverletzungen oder eines Integritätsverlusts eines bestimmten Zertifikats oder eines Satzes von Zertifikaten Vorsorgemaßnahmen in Bezug auf dieses Zertifikat oder diesen Satz von Zertifikaten ergreifen können und die Kommission hielt in einer förmlichen Erklärung fest, dass Art 45 eIDAS-VO Anbietern von Webbrowsern keine Verpflichtungen und Einschränkungen hinsichtlich der Gewährleistung vertraulicher Online-Kommunikation auferlege.&amp;lt;ref&amp;gt;[https://netzpolitik.org/2024/eidas-reform-eu-parlament-stimmt-fuer-digitale-brieftasche/ &#039;&#039;Leisegang&#039;&#039;, EU-Parlament stimmt für digitale Brieftasche, Netzpolitik.org, 29.02.2024]&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[https://www.europarl.europa.eu/doceo/document/A-9-2023-0038-AM-007-007_EN.pdf Statement by the Commission on Article 45 on the occasion of the adoption of Regulation 2024/...]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Archivierungsdienste ===&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Journale (electronic ledgers) ===&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; DSGVO gilt. Dies ist so zu verstehen, dass ...&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1838</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1838"/>
		<updated>2025-01-20T12:11:52Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Website-Authentifizierung */ Erläuterung, was das in der Praxis ist&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht == &lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Dies führte dazu, dass elektronische Identifizierungssysteme nicht in allen Mitgliedstaaten gleichermaßen zur Verfügung standen und ihre Verbreitung teilweise gering blieb, insbesondere in Bezug auf die Verwendung im privaten Sektor.&amp;lt;ref&amp;gt;Europäische Kommission, Verordnung über die europäische digitale Identität (EUDI)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um diese Mängel zu beheben, wurde eine umfangreiche Novellierung der eIDAS-VO erarbeitet – bekannt als eIDAS 2.0 – die am 20. Mai 2024 in Kraft trat. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Wegen dieser hohen Anzahl kann auf diese hier nicht näher eingegangen werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. Betreffend die EUDIW waren mit Stand Jahresende 2024 einzelne Durchführungsverordnungen der Kommission schon verabschiedet, andere befanden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt; In den Entwürfen zeichnete sich zuletzt eine Aufweichung der unten beschriebenen Datenschutz- und Datensicherheitsmaßnahmen des EUDIW ab, sodass diese Gegenstand intensiver politischer Diskussionen sind.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Insbesondere zu diesen Aspekten zeichnete sich zuletzt in der betreffenden Durchführungsverordnung eine Aufweichung ab, deren Zulässigkeit angesichts der soeben wiedergegeben Bestimmungen der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; Die Verabschiedung der finalen Durchführungsverordnung ist für das 1. Quartal 2025 angekündigt.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/14399-Brieftaschen-fur-die-europaische-digitale-Identitat-Registrierung-vertrauender-Beteiligter_de Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Brieftaschen für die europäische digitale Identität – Registrierung vertrauender Beteiligter]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen, dass hier ausführliche Anforderungen definiert werden, ....&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert und standardmäßig verwendet, erkennbar an der Präfix &amp;quot;https&amp;quot; in der URL-Zeile des Browsers und dem daneben angezeigten stilisierten Schloss. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte jedoch in diesem Bereich eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[tbc:  Art 45a wurde im Gesetzgebungsprozess hinzugefügt; entschärft dieser die Problematik oder nicht?]&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Archivierungsdienste ===&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Journale (electronic ledgers) ===&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; DSGVO gilt. Dies ist so zu verstehen, dass ...&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1831</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1831"/>
		<updated>2025-01-17T13:49:08Z</updated>

		<summary type="html">&lt;p&gt;Walter: Umstellung in der Einführung, Beweggründe für eIDAS 2.0, Beleg, Verschiebung der Notifizierung der ID Austria nach unten.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht == &lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Dies führte dazu, dass elektronische Identifizierungssysteme nicht in allen Mitgliedstaaten gleichermaßen zur Verfügung standen und ihre Verbreitung teilweise gering blieb, insbesondere in Bezug auf die Verwendung im privaten Sektor.&amp;lt;ref&amp;gt;Europäische Kommission, Verordnung über die europäische digitale Identität (EUDI)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um diese Mängel zu beheben, wurde eine umfangreiche Novellierung der eIDAS-VO erarbeitet – bekannt als eIDAS 2.0 – die am 20. Mai 2024 in Kraft trat. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Wegen dieser hohen Anzahl kann auf diese hier nicht näher eingegangen werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. Betreffend die EUDIW waren mit Stand Jahresende 2024 einzelne Durchführungsverordnungen der Kommission schon verabschiedet, andere befanden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt; In den Entwürfen zeichnete sich zuletzt eine Aufweichung der unten beschriebenen Datenschutz- und Datensicherheitsmaßnahmen des EUDIW ab, sodass diese Gegenstand intensiver politischer Diskussionen sind.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Insbesondere zu diesen Aspekten zeichnete sich zuletzt in der betreffenden Durchführungsverordnung eine Aufweichung ab, deren Zulässigkeit angesichts der soeben wiedergegeben Bestimmungen der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; Die Verabschiedung der finalen Durchführungsverordnung ist für das 1. Quartal 2025 angekündigt.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/14399-Brieftaschen-fur-die-europaische-digitale-Identitat-Registrierung-vertrauender-Beteiligter_de Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Brieftaschen für die europäische digitale Identität – Registrierung vertrauender Beteiligter]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen, dass hier ausführliche Anforderungen definiert werden, ....&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte jedoch in diesem Bereich eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[tbc:  Art 45a wurde im Gesetzgebungsprozess hinzugefügt; entschärft dieser die Problematik oder nicht?]&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Archivierungsdienste ===&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Journale (electronic ledgers) ===&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; DSGVO gilt. Dies ist so zu verstehen, dass ...&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1826</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1826"/>
		<updated>2025-01-17T12:57:16Z</updated>

		<summary type="html">&lt;p&gt;Walter: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht == &lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Am 20. Mai 2024 trat eine umfangreiche Novellierung der eIDAS-VO, bekannt als eIDAS 2.0, in Kraft. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Wegen dieser hohen Anzahl kann auf diese hier nicht näher eingegangen werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. Betreffend die EUDIW waren mit Stand Jahresende 2024 einzelne Durchführungsverordnungen der Kommission schon verabschiedet, andere befanden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt; In den Entwürfen zeichnete sich zuletzt eine Aufweichung der unten beschriebenen Datenschutz- und Datensicherheitsmaßnahmen des EUDIW ab, sodass diese Gegenstand intensiver politischer Diskussionen sind.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Insbesondere zu diesen Aspekten zeichnete sich zuletzt in der betreffenden Durchführungsverordnung eine Aufweichung ab, deren Zulässigkeit angesichts der soeben wiedergegeben Bestimmungen der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; Die Verabschiedung der finalen Durchführungsverordnung ist für das 1. Quartal 2025 angekündigt.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/14399-Brieftaschen-fur-die-europaische-digitale-Identitat-Registrierung-vertrauender-Beteiligter_de Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Brieftaschen für die europäische digitale Identität – Registrierung vertrauender Beteiligter]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt.&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen, dass hier ausführliche Anforderungen definiert werden, ....&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte jedoch in diesem Bereich eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[tbc:  Art 45a wurde im Gesetzgebungsprozess hinzugefügt; entschärft dieser die Problematik oder nicht?]&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Archivierungsdienste ===&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Journale (electronic ledgers) ===&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; DSGVO gilt. Dies ist so zu verstehen, dass ...&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1825</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1825"/>
		<updated>2025-01-17T12:53:49Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Einführung */ Details zum aktuellen Stand der EUDIW-Durchführungsverordnungen&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht == &lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Am 20. Mai 2024 trat eine umfangreiche Novellierung der eIDAS-VO, bekannt als eIDAS 2.0, in Kraft. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Wegen dieser hohen Anzahl kann auf diese hier nicht näher eingegangen werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. Betreffend die EUDIW waren mit Stand Jahresende 2024 einzelne Durchführungsverordnungen der Kommission schon verabschiedet, andere befanden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt; In den Entwürfen zeichnete sich zuletzt eine Aufweichung der unten beschriebenen Datenschutz- und Datensicherheitsmaßnahmen des EUDIW ab, sodass diese Gegenstand intensiver politischer Diskussionen sind.&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist. Insbesondere zu diesen Aspekten zeichnete sich zuletzt in der betreffenden Durchführungsverordnung eine Aufweichung ab, deren Zulässigkeit angesichts der soeben wiedergegeben Bestimmungen der EIDAS-VO in Frage steht.&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; Die Verabschiedung der finalen Durchführungsverordnung ist für das 1. Quartal 2025 angekündigt.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/14399-Brieftaschen-fur-die-europaische-digitale-Identitat-Registrierung-vertrauender-Beteiligter_de][https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Brieftaschen für die europäische digitale Identität – Registrierung vertrauender Beteiligter]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt.&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen, dass hier ausführliche Anforderungen definiert werden, ....&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte jedoch in diesem Bereich eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[tbc:  Art 45a wurde im Gesetzgebungsprozess hinzugefügt; entschärft dieser die Problematik oder nicht?]&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Archivierungsdienste ===&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Journale (electronic ledgers) ===&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; DSGVO gilt. Dies ist so zu verstehen, dass ...&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1822</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1822"/>
		<updated>2025-01-17T10:59:08Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Einführung */ Ergänzung zu den Durchführungesverordnungen +Links&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht == &lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Am 20. Mai 2024 trat eine umfangreiche Novellierung der eIDAS-VO, bekannt als eIDAS 2.0, in Kraft. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die novellierte eIDAS-VO sieht insgesamt ca. 40 Durchführungsrechtsakte vor, die zahlreiche teils sehr relevante Umsetzungsdetails regeln werden. Wegen dieser hohen Anzahl kann auf diese hier nicht näher eingegangen werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional. Betreffend die EUDIW waren zum Jahresende 2024 einzelne Durchführungsverordnungen der Kommission schon verabschiedet, andere befanden sich in öffentlicher Konsultation.&amp;lt;ref&amp;gt;[https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives_de?text=European%20Digital%20Identity%20Wallets Europäische Kommission, Öffentliche Konsultationen und Rückmeldungen, Schlüsselwort &amp;quot;European Digital Identity Wallets&amp;quot;]&amp;lt;/ref&amp;gt; Insbesondere wird auch die Effektivität der unten beschriebenen Datenschutz- und Datensicherheitsmaßnahmen des EUDIW in diesen Durchführungsverordnungen festgelegt, sodass diese Gegenstand intensiver politischer Diskussion sind.&amp;lt;ref&amp;gt;[https://netzpolitik.org/2024/digitale-identitaeten-faule-eier-der-kommission/ &#039;&#039;Leisegang&#039;&#039;, Faule Eier der Kommission, Netzpolitik.org, 05.12.2024] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist.&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt.&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen, dass hier ausführliche Anforderungen definiert werden, ....&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte jedoch in diesem Bereich eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[tbc:  Art 45a wurde im Gesetzgebungsprozess hinzugefügt; entschärft dieser die Problematik oder nicht?]&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Archivierungsdienste ===&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Journale (electronic ledgers) ===&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; DSGVO gilt. Dies ist so zu verstehen, dass ...&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1801</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1801"/>
		<updated>2025-01-16T14:22:08Z</updated>

		<summary type="html">&lt;p&gt;Walter: Klarstellung zu Art 5b&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht == &lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Am 20. Mai 2024 trat eine umfangreiche Novellierung der eIDAS-VO, bekannt als eIDAS 2.0, in Kraft. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die eIDAS-VO sieht insgesamt 35 Durchführungsrechtsakte vor. Wegen dieser hohen Anzahl kann auf diese hier nicht näher eingegangen werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional.&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern, wie in Art 5b Abs 3 ausdrücklich festgelegt ist. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist.&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt.&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen, dass hier ausführliche Anforderungen definiert werden, ....&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte jedoch in diesem Bereich eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[tbc:  Art 45a wurde im Gesetzgebungsprozess hinzugefügt; entschärft dieser die Problematik oder nicht?]&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Archivierungsdienste ===&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Journale (electronic ledgers) ===&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; DSGVO gilt. Dies ist so zu verstehen, dass ...&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1796</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1796"/>
		<updated>2025-01-16T13:41:53Z</updated>

		<summary type="html">&lt;p&gt;Walter: Stilistische Korrekturen in der Einführung&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Änderung durch&#039;&#039;&#039; {{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2024|Nummer=1183|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS (2.0)|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/1183, 1|Anzuwenden=21. Mai 2026/2027 (Übergangsbestimmungen)|Gültig=inkraft}}&#039;&#039;&#039;Ursprungsrechtsakt&#039;&#039;&#039;{{Infobox Rechtsakt (EU)|Typ=Verordnung|Jahr=2014|Nummer=910|Vertrag=EU|EWR=ja|Titel=Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG|Kurztitel=Regulation on electronic identification and trust services/Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen|Bezeichnung=eIDAS|Rechtsmaterie=Elektronische Identitäten|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2014/257, 73|Anzuwenden=1. Juli 2016 (mit Ausnahmen)|Gültig=anwendbar}}&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht == &lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente: &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO). Der Begriff elektronisches Dokument ist dabei sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Am 20. Mai 2024 trat eine umfangreiche Novellierung der eIDAS-VO, bekannt als eIDAS 2.0, in Kraft. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die eIDAS-VO sieht insgesamt 35 Durchführungsrechtsakte vor. Wegen dieser hohen Anzahl kann auf diese hier nicht näher eingegangen werden. Sie müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional.&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist.&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt.&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen, dass hier ausführliche Anforderungen definiert werden, ....&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte jedoch in diesem Bereich eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[tbc:  Art 45a wurde im Gesetzgebungsprozess hinzugefügt; entschärft dieser die Problematik oder nicht?]&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Archivierungsdienste ===&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Journale (electronic ledgers) ===&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; DSGVO gilt. Dies ist so zu verstehen, dass ...&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1041</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1041"/>
		<updated>2024-11-13T00:09:50Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Elektronische Vorgangsregister (electronic ledgers) */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Langtitel:&#039;&#039;&#039; [https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:02014R0910-20240520 Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG] (Konsolidierter Text in der Fassung der [https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32024R1183 Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität])&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Kurztitel:&#039;&#039;&#039; Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen; Regulation on electronic identification and trust services&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht == &lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente. Diese sind sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO): &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Am 20. Mai 2024 trat eine umfangreiche Novellierung der eIDAS-VO, bekannt als eIDAS 2.0, in Kraft. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die eIDAS-VO sieht insgesamt 35 Durchführungsrechtsakte vor, auf die aufgrund dieser hohen Anzahl hier nicht näher eingegangen werden kann. Diese müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional.&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist.&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt.&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen, dass hier ausführliche Anforderungen definiert werden, ....&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte jedoch in diesem Bereich eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[tbc:  Art 45a wurde im Gesetzgebungsprozess hinzugefügt; entschärft dieser die Problematik oder nicht?]&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Archivierungsdienste ===&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j eIDAS-VO die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Journale (electronic ledgers) ===&lt;br /&gt;
Die eIDAS-VO enthält wie erwähnt nunmehr auch Regelungen zu electronic ledgers, in der deutschsprachigen Fassung als elektronische Journale bezeichnet. Ein solches ist in Art 3 Z 52 eIDAS-VO definiert als &amp;quot;eine Abfolge von Aufzeichnungen elektronischer Daten, die die Unversehrtheit dieser Aufzeichnungen und die Richtigkeit ihrer chronologischen Reihenfolge gewährleistet.&amp;quot; Auch hierzu sind mit anderen Vertrauensdiensten vergleichbare Regelungen zu den Rechtswirkungen sowie die Anforderungen an qualifizierte elektronische Journale in Art 45k und 45l eIDAS-VO vorgesehen. Zu erwähnen ist, dass die Definition nicht das Kriterium der verteilten Datenhaltung enthält (vgl. [https://de.wikipedia.org/wiki/Distributed-Ledger-Technologie Distributed-Ledger-Technologie]). Art 45l Abs 1 lit a eIDAS-VO erwähnt allerdings, dass ein qualifiziertes elektronisches Journal von einem oder mehreren qualifizierten Vertrauensdiensteanbietern erstellt und verwaltet werden kann.&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; DSGVO gilt. Dies ist so zu verstehen, dass ...&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1040</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1040"/>
		<updated>2024-11-12T15:43:35Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Elektronische Archivierungsdienste */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Langtitel:&#039;&#039;&#039; [https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:02014R0910-20240520 Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG] (Konsolidierter Text in der Fassung der [https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32024R1183 Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität])&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Kurztitel:&#039;&#039;&#039; Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen; Regulation on electronic identification and trust services&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht == &lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO enthält auch eine ganz allgemeine Grundregel für elektronische Dokumente. Diese sind sehr weit definiert als jeder in elektronischer Form, insbesondere als Text-, Ton-, Bild- oder audiovisuelle Aufzeichnung gespeicherte Inhalt (Art 3 Z 35 eIDAS-VO): &amp;quot;Einem elektronischen Dokument darf die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil es in elektronischer Form vorliegt&amp;quot; (Art 46 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Am 20. Mai 2024 trat eine umfangreiche Novellierung der eIDAS-VO, bekannt als eIDAS 2.0, in Kraft. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die eIDAS-VO sieht insgesamt 35 Durchführungsrechtsakte vor, auf die aufgrund dieser hohen Anzahl hier nicht näher eingegangen werden kann. Diese müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional.&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist.&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt.&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen, dass hier ausführliche Anforderungen definiert werden, ....&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte jedoch in diesem Bereich eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[tbc:  Art 45a wurde im Gesetzgebungsprozess hinzugefügt; entschärft dieser die Problematik oder nicht?]&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle (vgl Art 3 Z 47 eIDAS-VO) zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Archivierungsdienste ===&lt;br /&gt;
Elektronische Archivierung &amp;quot;ist ein Dienst für die Entgegennahme, die Speicherung, den Abruf und die Löschung elektronischer Daten und elektronischer Dokumente, der ihre Dauerhaftigkeit und Lesbarkeit gewährleistet sowie ihre Unversehrtheit, Vertraulichkeit und den Nachweis ihrer Herkunft während des gesamten Bewahrungszeitraums erhält&amp;quot; (Art 3 Z 48 eIDAS-VO). Analog zu anderen Vertrauensdiensten regeln die Art 45i und 45j die Rechtswirkung sowie die Anforderungen an qualifizierte elektronische Archivierungsdienste.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Vorgangsregister (electronic ledgers) ===&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; DSGVO gilt. Dies ist so zu verstehen, dass ...&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
	<entry>
		<id>https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1039</id>
		<title>Regulation on electronic identification and trust services (eIDAS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.atlaws.eu/index.php?title=Regulation_on_electronic_identification_and_trust_services_(eIDAS)&amp;diff=1039"/>
		<updated>2024-11-12T14:18:22Z</updated>

		<summary type="html">&lt;p&gt;Walter: /* Elektronische Signaturen */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;Langtitel:&#039;&#039;&#039; [https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:02014R0910-20240520 Verordnung (EU) Nr. 910/2014 des Europäischen Parlaments und des Rates vom 23. Juli 2014 über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen im Binnenmarkt und zur Aufhebung der Richtlinie 1999/93/EG] (Konsolidierter Text in der Fassung der [https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32024R1183 Verordnung (EU) 2024/1183 des Europäischen Parlaments und des Rates vom 11. April 2024 zur Änderung der Verordnung (EU) Nr. 910/2014 im Hinblick auf die Schaffung des europäischen Rahmens für eine digitale Identität])&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Kurztitel:&#039;&#039;&#039; Verordnung über elektronische Identifizierung und Vertrauensdienste für elektronische Transaktionen; Regulation on electronic identification and trust services&lt;br /&gt;
&lt;br /&gt;
== Kurzübersicht == &lt;br /&gt;
&lt;br /&gt;
== Einführung ==&lt;br /&gt;
Die Abkürzung eIDAS steht für &amp;quot;electronic IDentification, Authentication and Trust Services&amp;quot;. Die ursprüngliche Fassung der eIDAS-VO wurde im Jahr 2014 beschlossen. Sie umfasst zwei Regelungsgegenstände, die völlig unabhängig voneinander behandelt werden, &lt;br /&gt;
&lt;br /&gt;
* die elektronische Identifizierung sowie&lt;br /&gt;
* Vertrauensdienste, wie insbesondere elektronische Signaturen. &lt;br /&gt;
&lt;br /&gt;
Die Rahmenbedingungen für elektronische Singnaturen bauen auf der Signaturrichtlinie auf, die seit 1999 gegolten hatte. Betreffend die Vertrauensdienste enthielt die IDAS-VO von 2014 bereits europaweit einheitliche Regeln (Harmonisierung), betreffend die elektronische Identifizierung regelte diese hingegen nur grenzüberschreitende Aspekte. Sie versuchte, Interoperabilität zwischen den verschiedenen nationalen elektronischen Identifizierungssystemen der Mitgliedstaaten herzustellen, indem sie deren gegenseitige Anerkennung durch die Mitgliedstaaten für deren E-Government-Services normiert. Vorschriften, wie diese gestaltet sein müssen, eine Verpflichtung zur Anerkennung im Privatsektor oder eine Verpflichtung, dass jeder Mitgliedsaat überhaupt ein elektronisches Identifizierungssystem haben müsse, enthielt sie nicht. Österreich hat im Jahr 2022 die ID Austria notifiziert.&amp;lt;ref&amp;gt;&#039;&#039;Kustor&#039;&#039;, Vortrag zu eIDAS 2.0, Innovation Day 2023 https://www.youtube.com/watch?v=_JgS_4e1Qs4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Am 20. Mai 2024 trat eine umfangreiche Novellierung der eIDAS-VO, bekannt als eIDAS 2.0, in Kraft. Als zentrale Neuerung treten neben die Interoperabilität der nationalen elektronischen Identifizierungssysteme einheitliche Vorgaben für eine „Europäische Brieftasche für die Digitale Identität“ („European Digital Identity Wallet“, kurz EUDI-Wallet, &amp;lt;abbr&amp;gt;EUDI&amp;lt;/abbr&amp;gt;-Brieftasche oder EUDIW). Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürger*innen eine solche Wallet anbieten, mit der sie sich online und offline ausweisen können, insbesondere auch gegenüber Unternehmen, sowie Attribute aller Art nachweisen können, vom Altersnachweis über Zeugnisse bis hin zu Tickets. Die Nutzung soll freiwillig und kostenfrei sein.    &lt;br /&gt;
&lt;br /&gt;
Betreffend Vertrauensdienste enthielt die eIDAS-VO bereits bisher Regelungen zu Vertrauensdiensteanbietern sowie zu folgenden spezifischen Vertrauensdiensten:   &lt;br /&gt;
&lt;br /&gt;
* Elektronische Signaturen&lt;br /&gt;
* Elektronische Siegel&lt;br /&gt;
* Elektronische Zeitstempel&lt;br /&gt;
* Dienste für die Zustellung elektronischer Einschreiben&lt;br /&gt;
* Website-Authentifizierung&lt;br /&gt;
&lt;br /&gt;
Mit der Novellierung 2024 wurden einige dieser Regelungen angepasst und es traten Regelungen zu folgenden neunen Vertrauensdiensten hinzu:&lt;br /&gt;
&lt;br /&gt;
* Elektronische Attributsbescheinigung&lt;br /&gt;
* Elektronische Archivierungsdienste&lt;br /&gt;
* Elektronische Journale (electronic ledgers)&lt;br /&gt;
Die Regulierung ist im Detail nicht abgeschlossen, denn die eIDAS-VO sieht insgesamt 35 Durchführungsrechtsakte vor, auf die aufgrund dieser hohen Anzahl hier nicht näher eingegangen werden kann. Diese müssen entweder 6, 12 oder 24 Monate nach Inkrafttreten der eIDAS-VO vorliegen, manche sind jedoch optional.&lt;br /&gt;
&lt;br /&gt;
== Elektronische Identifizierung ==&lt;br /&gt;
Die elektronische Identifizierung ist in Art 3 Z 1 eIDAS-VO definiert als &amp;quot;der Prozess der Verwendung von Personenidentifizierungsdaten in elektronischer Form, die eine natürliche oder juristische Person oder eine natürliche Person, die eine andere natürliche Person oder eine juristische Person vertritt, eindeutig repräsentieren.&amp;quot; Ein elektronisches Identifizierungsmittel ist &amp;quot;eine materielle und/oder immaterielle Einheit, die Personenidentifizierungsdaten enthält und zur Authentifizierung bei Online-Diensten oder gegebenenfalls bei Offline-Diensten verwendet wird&amp;quot; (Art 3 Z 2 eIDAS-VO). Die Authentifizierung ist &amp;quot;ein elektronischer Prozess, der die Bestätigung der elektronischen Identifizierung einer natürlichen oder juristischen Person oder die Bestätigung des Ursprungs und der Unversehrtheit von Daten in elektronischer Form ermöglicht&amp;quot; (Art 3 Z 5 eIDAS-VO). Die natürliche oder juristische Person, der gegenüber sich ein Individuum identifiziert und/oder bestimmte Eigenschaften (Attribute) nachweist, die also, wie es die Definition in Art 3 Z 6 eIDAS-VO formuliert, &amp;quot;auf eine elektronische Identifizierung, europäische Brieftaschen für die Digitale Identität oder andere Mittel zur elektronischen Identifizierung oder einen Vertrauensdienst vertraut&amp;quot;, wird &amp;quot;vertrauender Beteiligter&amp;quot; genannt, in direkter Übersetzung des wesentlich gebräuchlicheren englischen Begriffs &amp;quot;relying party&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO sieht drei Sicherheitsniveaus für elektronische Identifizierungsmittel vor, „niedrig“, „substanziell“ und „hoch“. Die Kriterien für diese Sicherheitsniveaus sind in Art 8 eIDAS-VO sowie in Durchführungsrechtsakten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== European Digital Identity Wallet (EUDIW) ===&lt;br /&gt;
Die &amp;quot;Europäische Brieftasche für die Digitale Identität“, wie sie auf Deutsch heißt, &amp;quot;ist ein elektronisches Identifizierungsmittel, das es dem Nutzer ermöglicht, Personenidentifizierungsdaten und elektronische Attributsbescheinigungen sicher zu speichern, zu verwalten und zu validieren, um sie vertrauenden Beteiligten und anderen Nutzern von europäischen Brieftaschen für die Digitale Identität zu präsentieren und mittels qualifizierter elektronischer Signaturen zu unterzeichnen oder mittels qualifizierter elektronischer Siegel zu besiegeln&amp;quot; (Art 3 Z 43 eIDAS-VO). Hervorzuheben ist, dass die EUDIW somit selbst ein elektronisches Identifizierungsmittel ist und zwar auf der Sicherheitsstufe &amp;quot;hoch&amp;quot; (Art 5a Abs 4 lit d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Jeder Mitgliedstaat muss bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) zumindest ein EUDIW bereitstellen (Art 5a Abs 1 eIDAS-VO). Dies kann unmittelbar durch den Mitgliedstaat erfolgen oder in dessen Auftrag oder unabhängig von diesem, aber von diesem anerkannt (Art 5a Abs 2 eIDAS-VO). Der &amp;quot;Quellcode der Anwendungssoftwarekomponenten&amp;quot; der EUDIW muss gemäß Art 5a Abs 3 eIDAS-VO einer Open-Source-Lizenz unterliegen, wobei eine Ausnahmen vorgesehen ist für bestimmte &amp;quot;Komponenten, die nicht auf den Geräten des Nutzers installiert sind&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
==== Funktionen der EUDIW ====&lt;br /&gt;
Die Funktionalität eines EUDIW ist in Art 5a Abs 4 eIDAS-VO wie folgt festgelegt:&lt;br /&gt;
&lt;br /&gt;
* das sichere Anfordern, Erhalten, Auswählen, Kombinieren, Speichern, Löschen, Weitergeben und Vorweisen — unter alleiniger Kontrolle durch den Nutzer — elektronischer Attributsbescheinigungen und von Personenidentifizierungsdaten und, falls anwendbar, in Kombination mit elektronischen Attributsbescheinigungen, gegenüber vertrauenden Beteiligten, um sich online und, gegebenenfalls, offline für den Zugang zu öffentlichen und privaten Diensten zu authentifizieren, bei gleichzeitiger Sicherstellung, dass eine selektive Offenlegung von Daten möglich ist;&lt;br /&gt;
* das Generieren von Pseudonymen und deren verschlüsselte und lokale Speicherung in der EUDIW;&lt;br /&gt;
* die sichere Authentifizierung der EUDIW einer anderen Person und das Empfangen und Austauschen — zwischen den beiden EUDIW — von Personenidentifizierungsdaten und elektronischen Attributsbescheinigungen;&lt;br /&gt;
* den Zugang zur Protokollierung aller über die EUDIW vorgenommenen Transaktionen über ein gemeinsames Dashboard, sodass der Nutzer in der Lage ist,&lt;br /&gt;
** eine aktuelle Auflistung der vertrauenden Beteiligten, mit denen der Nutzer eine Verbindung aufgebaut hat, und, falls anwendbar, alle weitergegebenen Daten einzusehen;&lt;br /&gt;
** einen vertrauenden Beteiligten auf einfache Weise um die Löschung personenbezogener Daten gemäß Artikel 17 der Verordnung (EU) 2016/679 durch einen vertrauenden Beteiligten zu ersuchen;&lt;br /&gt;
** eine Meldung auf einfache Weise an die zuständige nationale Datenschutzbehörde, wenn ein mutmaßlich unrechtmäßiges oder verdächtiges Ersuchen um Daten eingegangen ist;&lt;br /&gt;
* das Unterzeichnen mit qualifizierten elektronischen Signaturen oder das Siegeln mit qualifizierten elektronischen Siegeln;&lt;br /&gt;
* – soweit technisch möglich — das Herunterladen von Nutzerdaten, elektronischen Attributsbescheinigungen und Konfigurationen;&lt;br /&gt;
* die Ausübung der Rechte des Nutzers auf Datenübertragbarkeit.&lt;br /&gt;
&lt;br /&gt;
Diese Funktionen muss ein EUDIW &amp;quot;in transparenter und nachvollziehbarer Weise ermöglichen&amp;quot;. Darüber hinaus können die Mitgliedstaaten zusätzliche Funktionen vorsehen (Art 5a Abs 7 eIDAS-VO). Hervorzuheben ist zum ersten Punkt, dass auch eine Verwendung der EUDIW offline, also ohne Internetverbindung und somit ohne Beteiligung eines Servers, vorgesehen ist, eingeschränkt durch den Begriff &amp;quot;gegebenenfalls&amp;quot; bzw. in der englischsprachigen Fassung etwas aussagekräftiger &amp;quot;where appropriate&amp;quot;, sowie die selektive Offenlegung von Daten. Auch die Verwendung des EUDIW auf der Empfängerseite einer Transaktion und somit horizontal zwischen Nutzern ist hervorzuheben (dritter Punkt).  &lt;br /&gt;
&lt;br /&gt;
Nur in den Erwägungsgründen findet sich die Anforderung, dass die Mitgliedstaaten &amp;quot;verschiedene Technologien zum Schutz der Privatsphäre, beispielsweise Zero-Knowledge-Proof (Null-Wissens-Beweis)&amp;quot;, in die EUDIW integrieren &amp;quot;sollten&amp;quot;. &amp;quot;Diese kryptografischen Methoden sollten es einem vertrauenden Beteiligten ermöglichen, die Richtigkeit einer bestimmten Aussage, die auf der Grundlage der Identifizierungsdaten und der Attributsbescheinigung in der europäischen Brieftasche für die Digitale Identität eines Nutzers erfolgt, zu validieren, ohne dass Daten, auf denen die Aussage beruht, preisgegeben werden, wodurch die Privatsphäre des Nutzers gewahrt bleibt&amp;quot; (ErwGr 14). &lt;br /&gt;
&lt;br /&gt;
Die Ausstellung, die Verwendung und der Widerruf von EUDIW muss für alle natürlichen Personen kostenlos sein (Art 5a Abs 12 eIDAS-VO). Ebenso muss Unterzeichnen mit qualifizierten elektronischen Signaturen mittels EUDIW für alle natürlichen Personen kostenlos sein (Art 5a Abs 5 lit g eIDAS-VO), wobei die Mitgliedstaaten verhältnismäßige Maßnahmen treffen können, um dies auf nichtgewerbliche Zwecke zu beschränken. &lt;br /&gt;
&lt;br /&gt;
Während die Nutzer nationaler eIDs über nationale eIDAS-Knoten mit der jeweiligen Anwendung interagieren, kommuniziert die EUDIW direkt mit der jeweiligen Anwendung, sodass es einheitlicher Protokolle und Schnittstellen bedarf, deren Funktionalität in Art 5a Abs 5 lit a eIDAS-VO detailliert festgelegt ist.&lt;br /&gt;
&lt;br /&gt;
==== Datenschutz und Datensicherheit ====&lt;br /&gt;
&lt;br /&gt;
Aufgrund der potenziellen Datenschutzrisiken, die ein Identitätsmanagementsystem mit sich bringen kann, insbesondere wenn es weiträumig und umfassend verwendbar ist, war der Datenschutz im Entstehungsprozess von eIDAS 2.0 ein vieldiskutiertes Thema und ist es weiterhin in der Phase der Ausarbeitung der Durchführungsrechtsakte. Wesentliche Datenschutzrisiken von Identitätsmanagementsystemen und die entsprechenden Anforderungen im Sinne des Gebots der Datenminimierung sind:&amp;lt;ref&amp;gt;Siehe dazu ausführlich &#039;&#039;Hötzendorfer&#039;&#039;, Datenschutz und Privacy by Design im Identitätsmanagement, Österreichische Computer Gesellschaft (OCG), Wien, 2016.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
* Überidentifikation: Die betroffene Person sollte bei einer Transaktion nur jene Daten offenlegen müssen, die für die Transaktion erforderlich sind, und insbesondere ihre Identität nur dann offenlegen müssen, wenn diese für die Transaktion erforderlich ist.&lt;br /&gt;
* Verknüpfung von Transaktionen: Transaktionen, die nichts miteinander zu tun haben, und Daten, die jeweils in diesen Transaktionen offengelegt werden, sollten nicht miteinander in Verbindung gebracht werden können (Unverknüpfbarkeit). Praktisch bedeutet das vor allem, ein vertrauender Beteiligter sollte nicht erkennen können, dass zwei Transaktionen derselben anonymen Person, die beispielsweise nur ihre Volljährigkeit nachweist, von derselben Person stammen.&lt;br /&gt;
* Beobachtung des Nutzerverhaltens: Eine zentrale Stelle, wie im vorliegenden Kontext der Anbieter des EUDIW, oder ein Aussteller von Identitäts- oder Attributsdaten, sollte nicht in der Lage sein, zu beobachten, für welche Zwecke und wem gegenüber die betroffene Person ihre Identität und/oder bestimmte Attribute nachweist (Unbeobachtbarkeit).&lt;br /&gt;
&lt;br /&gt;
Der Beobachtung des Nutzerverhaltens, oder vielmehr zumindest dessen Auswertung soll insbesondere die Bestimmung des Art 5a Abs 14 eIDAS-VO entgegenwirken, die Folgendes normiert:   &lt;br /&gt;
&lt;br /&gt;
* Die Nutzer haben die uneingeschränkte Kontrolle über die Nutzung ihrer EUDIW und über die darin enthaltenen Daten. &lt;br /&gt;
* Der Anbieter der EUDIW sammelt weder Informationen über die Nutzung der EUDIW, die für die Erbringung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, noch kombiniert er Personenidentifizierungsdaten oder andere gespeicherte oder im Zusammenhang mit der Verwendung der EUDIW stehende personenbezogene Daten mit personenbezogenen Daten aus anderen vom Anbieter angebotenen Diensten oder aus Diensten Dritter, die für die Bereitstellung der mit der EUDIW verbundenen Dienste nicht erforderlich sind, es sei denn, der Nutzer hat dies ausdrücklich anders verlangt. &lt;br /&gt;
* Personenbezogene Daten in Bezug auf die Bereitstellung der EUDIW werden vom Anbieter der europäischen Brieftasche für die Digitale Identität von allen anderen gespeicherten Daten logisch getrennt gehalten.&lt;br /&gt;
&lt;br /&gt;
Einer strikten Umsetzung des Datenminimierungsgebots dahingehend, dass die Daten zur Nutzung gar nicht erst gespeichert werden, steht wohl das Erfordernis der Protokollierung aller über die EUDIW vorgenommenen Transaktionen in Art 5a Abs 4 lit d eIDAS-VO entgegen.      &lt;br /&gt;
    &lt;br /&gt;
Art 5a Abs 14 eIDAS-VO betrifft sowohl die Unbeobachtbarkeit als auch die Unverknüpfbarkeit und normiert, dass der technische Rahmen der EUDIW  &lt;br /&gt;
&lt;br /&gt;
* es Anbietern elektronischer Attributsbescheinigungen oder anderen Parteien nach Ausstellung der Attributsbescheinigung nicht erlauben darf, Daten zu erhalten, die es ermöglichen, Transaktionen oder Nutzerverhalten zu verfolgen, zu verknüpfen, zu korrelieren oder Kenntnisse über Transaktionen oder das Nutzerverhalten anderweitig zu erlangen, es sei denn, der Nutzer hat dies ausdrücklich genehmigt, und &lt;br /&gt;
* technische Verfahren zum Schutz der Privatsphäre ermöglichen muss, die die Unverknüpfbarkeit gewährleisten, wenn die Attributsbescheinigung keine Identifizierung des Nutzers erfordert.&lt;br /&gt;
Die zentrale Maßnahme der eIDAS-VO gegen Überidentifikation ist die Registrierungsnotwendigkeit für vertrauende Beteiligte (Art 5b eIDAS-VO): Ein vertrauende Beteiligter, der  für die Bereitstellung öffentlicher oder privater Dienste auf die EUDIW zurückzugreifen möchte, muss sich in dem Mitgliedstaat, in dem er niedergelassen ist, registrieren. Dabei muss er angeben, welche Daten er von den Nutzern anzufordern beabsichtigt (in ErwGr 17 der eIDAS-VO ist auch davon die Rede, dass dies zu begründen ist), und nur diese darf er dann im Zuge von Transaktionen tatsächlich anfordern. Die bei der Registrierung gemachten Angaben sind von den Mitgliedstaaten online zu veröffentlichen, in elektronisch signierter oder besiegelter Form, die für eine automatisierte Verarbeitung geeignet ist. Flankiert wird diese Maßnahme von der Verpflichtung vertrauender Beteiligter, sich gegenüber den Nutzern zu identifizieren und Pseudonyme nicht zu verweigern, wenn die Identifizierung des Nutzers nicht im Unionsrecht oder im nationalen Recht vorgeschrieben ist.&lt;br /&gt;
&lt;br /&gt;
Art 5a Abs 12 eIDAS-VO legt zudem fest, dass die EUDIW &amp;quot;security-by-design&amp;quot; sicherstellen müssen, was im deutschen Verordnungstext damit übersetzt wird, dass sie &amp;quot;mit ‚konzeptintegrierter Sicherheit‘ auszustatten&amp;quot; sind. Art 5a Abs 5 eIDAS-VO normiert eine Pflicht zur Verständigung der Nutzer über Sicherheitsverletzungen. Näheres zu Konsequenzen von Sicherheitsverletzungen ist in Art 5e eIDAS-VO vorgesehen. &lt;br /&gt;
&lt;br /&gt;
In Art 5c eIDAS-VO ist das Erfordernis der Zertifizierung jedes EUDIW geregelt, unter Bezugnahme auf den [[Cyber Security Act (CSA)|Cyber Security Act]]. Alle zertifizierten EUDIW werden die im Amtsblatt der Europäischen Union veröffentlicht und in einer maschinenlesbaren Liste geführt (Art 5d eIDAS-VO).  &lt;br /&gt;
&lt;br /&gt;
Auch die Bestimmung über die Freiwilligkeit der Nutzung (Art 5a Abs 14 eIDAS-VO) dient - neben dem Hauptzweck der Nichtdiskriminierung - gewissermaßen auch Datenschutzzwecken. Sie normiert zusätzlich folgende Anforderungen, damit eine Freiwilligkeit auch faktisch besteht: &lt;br /&gt;
&lt;br /&gt;
* Natürliche oder juristische Personen, die die EUDIW nicht nutzen, dürfen in ihrem Zugang zu öffentlichen und privaten Diensten und zum Arbeitsmarkt sowie in ihrer unternehmerischen Freiheit in keiner Weise eingeschränkt oder benachteiligt werden. &lt;br /&gt;
* Der Zugang zu öffentlichen und privaten Diensten muss weiterhin über andere bestehende Identifizierungs- und Authentifizierungsmittel möglich sein. &lt;br /&gt;
&lt;br /&gt;
==== Annahmepflichten der EUDIW ====&lt;br /&gt;
In drei verschiedenen Konstellationen ist eine Verpflichtungen zur Akzeptanz des EUDIW vorgesehen (Art 5f eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Wenn Mitgliedstaaten für einen E-Government-Dienst eine elektronische Identifizierung und Authentifizierung verlangen, müssen sie dafür auch die EUDIW akzeptieren.&lt;br /&gt;
* Sind private vertrauende Beteiligte, die Dienste erbringen — mit Ausnahme von Kleinst- und kleinen Unternehmen im Sinne von Art 2 des Anhangs der Empfehlung 2003/361/EG der Kommission&amp;lt;ref&amp;gt;[https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32003H0361 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (2003/361/EG) (ABl. L 124 vom 20.5.2003, S. 36).]&amp;lt;/ref&amp;gt; –, nach Unionsrecht oder nationalem Recht verpflichtet, eine Online-Identifizierung mit starker Nutzerauthentifizierung vorzunehmen, oder ist eine Online-Identifizierung mit starker Nutzerauthentifizierung vertraglich vorgeschrieben, auch in den Bereichen Verkehr, Energie, Bankenwesen, Finanzdienstleistungen, soziale Sicherheit, Gesundheit, Trinkwasser, Postdienste, digitale Infrastrukturen, Bildung oder Telekommunikation, so akzeptieren diese privaten vertrauenden Beteiligten hierfür spätestens 36 Monate nach dem Tag des Inkrafttretens der Durchführungsrechtsakte gemäß Art 5a Abs 23 und Art 5c Abs 6 eIDAS-VO und nur auf freiwilliges Verlangen des Nutzers auch EUDIW. Der Begriff starke Nutzerauthentifizierung kann grundsätzlich als 2-Faktor-Authentifizierung verstanden werden und ist in Art 3 Z 51 eIDAS-VO näher definiert.&lt;br /&gt;
* Verlangen Anbieter sehr großer Online-Plattformen gemäß Art 33 [[Digital Services Act (DSA)|Digital Services Act]] für den Zugang zu Online-Diensten eine Nutzerauthentifizierung, so akzeptieren und erleichtern sie hierfür auch die Verwendung von EUDIW, und zwar nur auf freiwilliges Verlangen des Nutzers und nur mit den Mindestdaten, die für den spezifischen Online-Dienst, für den die Authentifizierung verlangt wird, erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
[in Arbeit]&lt;br /&gt;
&lt;br /&gt;
Mitgliedstaaten müssen eine eID hoch ausgeben und müssen ein Wallet ausgeben&lt;br /&gt;
&lt;br /&gt;
Wallet enthält: Identifikationsdaten&lt;br /&gt;
&lt;br /&gt;
Dauerhafte Identitätskennung&lt;br /&gt;
&lt;br /&gt;
=== Gegenseitige Anerkennung mitgliedstaatlicher elektronischer Identifizierungsmittel ===&lt;br /&gt;
&lt;br /&gt;
Neben den 2024 neu eingeführten EUDIW enthält die eIDAS-VO in den Art 6ff auch die bisherigen Bestimmungen zu elektronischen Identifizierungssystemen mit dem Schwerpunkt der gegenseitigen Anerkennung durch die Mitgliedstaaten notifizierter elektronischer Identifizierungssysteme. Kernbestimmung ist die Verpflichtung der Mitgliedstaaten, wenn für einen E-Government-Dienst nach nationalem Recht oder aufgrund der Verwaltungspraxis eine elektronische Identifizierung mit einem elektronischen Identifizierungsmittel auf dem Sicherheitsniveau „substanziell“ oder „hoch“ und mit einer Authentifizierung erforderlich ist, auch in einem anderen Mitgliedstaat ausgestellte elektronische Identifizierungsmittel des gleichen oder eines höheren Sicherheitsniveaus für Zwecke der grenzüberschreitenden Authentifizierung anzuerkennen (Art 6 Abs 1 eIDAS-VO). Die dafür erforderliche Notifizierung des elektronischen Identifizierungssystems durch den jeweiligen Mitgliedstaat und die Voraussetzungen dafür sind in Art 7 und 9 eIDAS-VO näher geregelt.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Notifizierung mit Peer-Review-Mechanismus.&lt;br /&gt;
== Vertrauensdienste ==&lt;br /&gt;
Vertrauensdiensteanbieter (Art 3 Z 19 eIDAS-VO) ist, wer einen Vertrauensdienst erbringt (oder mehrere), das ist ein elektronischer Dienst, der in der Regel gegen Entgelt erbracht wird und aus irgendeiner der folgenden Tätigkeiten besteht (Art 3 Z 19 eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
* Ausstellung von Zertifikaten für elektronische Signaturen, von Zertifikaten für elektronische Siegel, von Zertifikaten für die Website-Authentifizierung oder von Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Validierung von Zertifikaten für elektronische Signaturen, Zertifikaten für elektronische Siegel, Zertifikaten für die Website-Authentifizierung oder Zertifikaten für die Erbringung anderer Vertrauensdienste;&lt;br /&gt;
* Erstellung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Validierung elektronischer Signaturen oder elektronischer Siegel;&lt;br /&gt;
* Bewahrung von elektronischen Signaturen, elektronischen Siegeln, Zertifikaten für elektronische Signaturen oder Zertifikaten für elektronische Siegel;&lt;br /&gt;
* Verwaltung elektronischer Fernsignaturerstellungseinheiten oder elektronischer Fernsiegelerstellungseinheiten;&lt;br /&gt;
* Ausstellung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Validierung elektronischer Attributsbescheinigungen;&lt;br /&gt;
* Erstellung elektronischer Zeitstempel;&lt;br /&gt;
* Validierung elektronischer Zeitstempel;&lt;br /&gt;
* Erbringung von Diensten für die Zustellung elektronischer Einschreiben;&lt;br /&gt;
* Validierung von durch Dienste für die Zustellung elektronischer Einschreiben übermittelten Daten und damit zusammenhängenden Nachweisen;&lt;br /&gt;
* elektronische Archivierung elektronischer Daten und elektronischer Dokumente;&lt;br /&gt;
* Aufzeichnung elektronischer Daten in einem elektronischen Journal.&lt;br /&gt;
In Art 24a eIDAS-VO ist die gegenseitige Anerkennung qualifizierter Vertrauensdienste in allen Mitgliedstaaten festgelegt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Signaturen ===&lt;br /&gt;
In Art 3 Z 10 eIDAS-VO ist der Begriff &#039;&#039;elektronische Signatur&#039;&#039; definiert als „Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.“ Der Unterzeichner ist definiert als „eine natürliche Person, die eine elektronische Signatur erstellt“ (Art 3 Z 11 eIDAS-VO). Für juristische Personen bestehen als Äquivalent zur elektronischen Signatur die elektronischen Siegel.&lt;br /&gt;
&lt;br /&gt;
Die eIDAS-VO unterscheidet zwischen drei Arten von elektronischen Signaturen: „einfachen“, fortgeschrittenen und qualifizierten elektronischen Signaturen, deren Definitionen aufeinander aufbauen. Aus der Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur wird deutlich, dass an diese keinerlei Anforderungen gestellt werden. Bereits das Unterzeichnen eines E-Mails mit dem Namen des Verfassers erfüllt die Definition. Die Definition der &amp;quot;einfachen&amp;quot; elektronischen Signatur in der eIDAS-VO dient daher vor allem dem Zweck, darauf aufbauend die &#039;&#039;fortgeschrittene elektronische Signatur&#039;&#039; zu definieren als elektronische Signatur, die die Anforderungen des Art 26 eIDAS-VO erfüllt (Art 3 Z 11 eIDAS-VO). Art 26 Abs 1 lautet:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Anforderungen an fortgeschrittene elektronische Signaturen&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Eine fortgeschrittene elektronische Signatur erfüllt alle folgenden Anforderungen:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;a) Sie ist eindeutig dem Unterzeichner zugeordnet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;b) Sie ermöglicht die Identifizierung des Unterzeichners.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;c) Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;d) Sie ist so mit den auf diese Weise unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Art 26 Abs 2 ermöglicht der Kommission, Durchführungsrechtsakte zu erlassen, „mit denen eine Liste von Referenzstandards erstellt wird und gegebenenfalls Spezifikationen und Verfahren für fortgeschrittene elektronische Signaturen festgelegt werden.“&lt;br /&gt;
&lt;br /&gt;
Art 3 Z 12 eIDAS-VO definiert schließlich die &#039;&#039;qualifizierte elektronischen Signatur&#039;&#039; als „eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.“&lt;br /&gt;
&lt;br /&gt;
Eine solche qualifizierte elektronische Signatur hat die gleiche &#039;&#039;&#039;Rechtswirkung&#039;&#039;&#039; wie eine handschriftliche Unterschrift (Art 25 Abs 2 eIDAS-VO). Überdies normiert Art 25 Abs 1 eIDAS-VO, dass einer elektronischen Signatur die Rechtswirkung und die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden darf, weil sie in elektronischer Form vorliegt oder weil sie die Anforderungen an qualifizierte elektronische Signaturen nicht erfüllt.&lt;br /&gt;
&lt;br /&gt;
Im allgemeinen (technischen) Sprachgebrauch wird die auf [https://de.wikipedia.org/wiki/Asymmetrische_Kryptographie asymmetrischer Kryptographie] basierende Technologie, mit der die soeben dargelegten Anforderungen umgesetzt werden, als &#039;&#039;[https://de.wikipedia.org/wiki/Digitale_Signatur digitale Signatur]&#039;&#039; bezeichnet. &#039;&#039;Elektronische Signatur&#039;&#039; ist demgegenüber ein rechtlicher Begriff, der bewusst technologieneutral gewählt wurde, wobei in der Praxis zur Implementierung qualifizierter elektronischer Signaturen nur die Technologie der digitalen Signatur eine Rolle spielt.&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser begrifflich abstrakten Herangehensweise ist in der eIDAS-VO auch nicht von privatem und öffentlichem Schlüssel die Rede, sondern von &#039;&#039;elektronischen&#039;&#039; &#039;&#039;Signaturerstellungsdaten&#039;&#039; (Art 3 Z 13 eIDAS-VO) und &#039;&#039;Signaturvalidierungsdaten&#039;&#039;. Letztere sind nicht eigenständig definiert, sondern in der Definition des Begriffs Zertifikat für elektronische Signaturen enthalten (Art 3 Z 14 eIDAS-VO). Diese lautet: „‚Zertifikat für elektronische Signaturen‘ ist eine elektronische Bescheinigung, die elektronische Signaturvalidierungsdaten mit einer natürlichen Person verknüpft und die mindestens den Namen oder das Pseudonym dieser Person bestätigt.“ Eine detaillierte Liste jener Angaben, die ein qualifiziertes Zertifikat enthalten muss, findet sich in Anhang I der eIDAS-VO.&lt;br /&gt;
&lt;br /&gt;
Ein Zertifikat für elektronische Signaturen, das diese Anforderungen erfüllt und von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde, ist gemäß Art 3 Z 15 eIDAS-VO ein &#039;&#039;qualifiziertes Zertifikat für elektronische Signaturen&#039;&#039;. Art 28 Abs 2 eIDAS-VO bestimmt, dass keine obligatorischen Anforderungen an ein qualifiziertes Zertifikat für elektronische Signaturen gelten dürfen, die über die Anforderungen des Anhang I hinausgehen. Gemäß Art 28 Abs 3 eIDAS-VO können qualifizierte Zertifikate zusätzliche fakultative spezifische Attribute enthalten. Der Begriff [https://de.wikipedia.org/wiki/Digitales_Zertifikat Zertifikat] entspricht dem allgemeinen einschlägigen Sprachgebrauch.&lt;br /&gt;
&lt;br /&gt;
Die Anforderungen, die eine &#039;&#039;&#039;qualifizierte elektronische Signaturerstellungseinheit&#039;&#039;&#039; erfüllen muss, um gemäß Art 29 Abs 1 als solche zu gelten, sind in Anhang II der eIDAS-VO definiert. In der Praxis wird als qualifizierte elektronische Signaturerstellungseinheit insbesondere eine [https://de.wikipedia.org/wiki/Chipkarte Chipkarte] oder ein [https://de.wikipedia.org/wiki/Hardware-Sicherheitsmodul Hardware Security Module (HSM)] verwendet. Mit der Novellierung wurden ausdrücklich auch Bestimmungen zu Fernsignaturen eingeführt (Art 3 Z 23a, Art 29a eIDAS-VO)&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen, dass hier ausführliche Anforderungen definiert werden, ....&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Siegel ===&lt;br /&gt;
Elektronische Siegel sind für juristische Personen das Äquivalent zu elektronischen Signaturen. Die Regelungen zu elektronischen Siegeln in Abschnitt 5 der eIDAS-VO sind äquivalent zu jenen für elektronische Signaturen ausgestaltet und normieren zum Teil nur die sinngemäße Geltung der entsprechenden Bestimmungen betreffend elektronische Signaturen. Die Regelung, wonach eine qualifizierte elektronische Signatur die gleiche Rechtswirkung hat wie eine handschriftliche Unterschrift, ist hingegen auf juristische Personen naturgemäß nicht übertragbar. Für ein qualifiziertes elektronisches Siegel gilt stattdessen die Vermutung der Unversehrtheit der Daten und der Richtigkeit der Herkunftsangabe der Daten, mit denen das qualifizierte elektronische Siegel verbunden ist (Art 35 Abs 2 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
Wie aus den Rechtswirkungen deutlich wird, zielen elektronische Siegel nicht auf die Abgabe von Willenserklärungen ab, sondern insbesondere auf die Abgabe von Wissenserklärungen, wie z.B. die Bestätigung der Integrität von Dokumenten oder Software oder des Erhalts von Daten. Der Vorteil eines elektronischen Siegels ist, dass sich im Vergleich zu einer elektronischen Signatur, die eine natürliche Person in Vertretung einer juristischen Person erstellt, die in diesem Fall zusätzlich erforderliche Überprüfung der Vertretungsbefugnis dieser natürlichen Person erübrigt.&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Zeitstempel ===&lt;br /&gt;
Ein elektronischer Zeitstempel ist in Art 3 Z 33 eIDAS-VO definiert als „Daten in elektronischer Form, die andere Daten in elektronischer Form mit einem bestimmten Zeitpunkt verknüpfen und dadurch den Nachweis erbringen, dass diese anderen Daten zu diesem Zeitpunkt vorhanden waren.“ Elektronische Zeitstempel dienen somit dem Nachweis, dass die damit bestätigten Daten zum darin angegebenen Zeitpunkt vorlagen und seitdem nicht verändert wurden. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;elektronischer Zeitstempel&#039;&#039; ein solcher, der die Anforderungen des Art 42 eIDAS-VO (Art 3 Z 34 eIDAS-VO). Gemäß Art 41 Abs 2 eIDAS-VO gilt für einen qualifizierten elektronischen Zeitstempel die Vermutung der Richtigkeit des Datums und der Zeit, die darin angegeben sind, sowie der Unversehrtheit der mit dem Datum und der Zeit verbundenen Daten.&lt;br /&gt;
&lt;br /&gt;
=== Dienste für die Zustellung elektronischer Einschreiben ===&lt;br /&gt;
Gemäß Art 3 Z 36 eIDAS-VO ist ein &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ein „Dienst, der die Übermittlung von Daten zwischen Dritten mit elektronischen Mitteln ermöglicht und einen Nachweis der Handhabung der übermittelten Daten erbringt, darunter den Nachweis der Absendung und des Empfangs der Daten, und der die übertragenen Daten vor Verlust, Diebstahl, Beschädigung oder unbefugter Veränderung schützt“. Ein &#039;&#039;qualifizierter&#039;&#039; &#039;&#039;Dienst für die Zustellung elektronischer Einschreiben&#039;&#039; ist gemäß Art 3 Z 37 eIDAS-VO ein solcher Dienst, der die Anforderungen des Art 44 eIDAS-VO erfüllt. Diese Bestimmung zeigt, dass sich ein Dienst für die Zustellung elektronischer Einschreiben der zuvor behandelten Vertrauensdienste bedient.&lt;br /&gt;
&lt;br /&gt;
=== Website-Authentifizierung ===&lt;br /&gt;
Art 3 Z 38 eIDAS-VO definiert ein Zertifikat für die Website-Authentifizierung (qualified website authentication certificate, QWAC) als &amp;quot;eine elektronische Bescheinigung, die die Authentifizierung einer Website ermöglicht und die Website mit der natürlichen oder juristischen Person verknüpft, der das Zertifikat ausgestellt wurde.&amp;quot; In der Praxis wird dies durch [https://de.wikipedia.org/wiki/Transport_Layer_Security TLS]-Zertifikate realisiert. Ein qualifiziertes Zertifikat für die Website-Authentifizierung ist gemäß Art 3 Z 39 eIDAS-VO ein von einem qualifizierten Vertrauensdiensteanbieter ausgestelltes Zertifikat für Website-Authentifizierung, das die Anforderungen des Anhangs IV der eIDAS-VO erfüllt. Die Stammfassung der Verordnung beschränkte sich darauf, verbindliche Anforderungen für solche Zertifikate zu definieren, die vom Aussteller als qualifiziert bezeichnet werden. Weder normiert die eIDAS-VO Rechtswirkungen solcher qualifizierter Zertifikate für die Website-Authentifizierung, noch trifft sie Regelungen, die in bestimmten Fällen zum Einsatz qualifizierter oder nichtqualifizierter Zertifikate für die Website-Authentifizierung verpflichten.&lt;br /&gt;
&lt;br /&gt;
Die Novellierung brachte jedoch in diesem Bereich eine umstrittene Neuerung mit sich: Art 45 Abs 1a eIDAS-VO verpflichtet nunmehr Anbieter von Webbrowsern, qualifizierte Zertifikate für die Website-Authentifizierung anzuerkennen. An dieser Neuerung wurde kritisiert, dass sie staatlichen Stellen ermöglicht, im Sinne eines Man-in-the-Middle-Angriffs Online-Kommunikation zu überwachen.&amp;lt;ref&amp;gt;&#039;&#039;Eggendorfer/Schmidt-Wudy&#039;&#039;, eIDAS 2.0 - &amp;quot;Sicherheit trotz und wegen Verschlüsselung&amp;quot;?, KuR 2024, 13&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[tbc:  Art 45a wurde im Gesetzgebungsprozess hinzugefügt; entschärft dieser die Problematik oder nicht?]&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Attributsbescheinigungen ===&lt;br /&gt;
Die mit eIDAS 2.0 eingeführten elektronischen Attributsbescheinigungen (engl. electronic attestations of attributes, EAA) ermöglichen den Nachweis von Attributen, das sind gemäß Art 3 Z 43 eIDAS-VO Merkmale, Qualitäten, Rechte oder Erlaubnisse einer natürlichen oder juristischen Person oder eines Objekts, wie z.B. ein Hochschulabschluss oder eine Fahrerlaubnis (Führerschein). Eine EAA ist folglich definiert als &amp;quot;eine in elektronischer Form vorliegende Bescheinigung, die die Authentifizierung von Attributen ermöglicht&amp;quot; (Art 3 Z 44 eIDAS-VO). Wenn eine EAA von einem qualifizierten Vertrauensdiensteanbieter ausgestellt wurde und die Anforderungen des Anhangs V der eIDAS-VO erfüllt, gilt sie als qualifizierte EAA (Art 3 Z 45 eIDAS-VO). Diesen gleichgestellt gibt es zum Zweck der unmittelbaren Bescheinigung von Attributen aus staatlichen Registern, für die aufgrund ihrer originären Authentizität eine Einbeziehung eines qualifizierten Vertrauensdiensteanbieters widersinnig wäre, eine eigene Kategorie der EAA, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden. Diese definiert Art 3 Z 46 eIDAS-VO als eine EAA, die gemäß Art 45f und Anhang VII der eIDAS-VO on einer öffentlichen Stelle ausgestellt wurde, die für eine authentische Quelle zuständig ist, oder von einer öffentlichen Stelle ausgestellt wurde, die von dem Mitgliedstaat dafür benannt wurde, solche Attributsbescheinigungen im Namen der öffentlichen Stellen auszustellen, die für authentische Quellen zuständig sind. &lt;br /&gt;
&lt;br /&gt;
Die Mitgliedstaaten müssen bis spätestens 24 Monate nach Inkrafttreten der entsprechenden Durchführungsrechtsakte (somit voraussichtlich zu einem Zeitpunkt im zweiten Halbjahr 2026) dafür sorgen, dass zumindest die folgenden Attribute anhand authentischer Quellen elektronisch überprüft werden können (Art 45e Abs 1 iVm Anhang VI eIDAS-VO):&lt;br /&gt;
&lt;br /&gt;
# Adresse,&lt;br /&gt;
# Alter,&lt;br /&gt;
# Geschlecht,&lt;br /&gt;
# Personenstand,&lt;br /&gt;
# Familienzusammensetzung,&lt;br /&gt;
# Staatsangehörigkeit oder Staatsbürgerschaft,&lt;br /&gt;
# Bildungsabschlüsse, Titel und Erlaubnisse,&lt;br /&gt;
# Berufsqualifikationen, Titel und Berechtigungen,&lt;br /&gt;
# Vollmachten und Mandate, eine natürliche oder juristische Person zu vertreten,&lt;br /&gt;
# behördliche Genehmigungen und Lizenzen,&lt;br /&gt;
# für juristische Personen Finanzdaten und Unternehmensdaten.&lt;br /&gt;
&lt;br /&gt;
Art 45b Abs 3 eIDAS-VO schreibt für diese Kategorie der EAA die Anerkennung in allen Mitgliedstaaten vor. Die weiteren Regeln zu den Rechtwirkungen ähneln jenen der elektronischen Signatur: &amp;quot;Eine qualifizierte elektronische Attributsbescheinigung und Attributsbescheinigungen, die von oder im Namen einer für eine authentische Quelle zuständigen öffentlichen Stelle ausgestellt werden, haben dieselbe Rechtswirkung wie rechtmäßig ausgestellte Bescheinigungen in Papierform&amp;quot; (Art 45b Abs 2 eIDAS-VO) und &amp;quot;[e]iner elektronischen Attributsbescheinigung darf die Rechtswirkung oder die Zulässigkeit als Beweismittel in Gerichtsverfahren nicht allein deshalb abgesprochen werden, weil sie in elektronischer Form vorliegt oder nicht die Anforderungen an qualifizierte elektronische Attributsbescheinigungen erfüllt&amp;quot; (Art 45b Abs 1 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Zum Zusammenspiel zwischen EAA und der EUDIW ist festgelegt, dass Anbieter von EAA EUDIW-Nutzern die Möglichkeit bieten müssen, die EAA unabhängig von dem Mitgliedstaat, in dem die EUDIW bereitgestellt wird, anzufordern, zu erhalten, zu speichern und zu verwalten (Art 45g Abs 1 eIDAS-VO) und dass Anbieter qualifizierter EAA eine Schnittstelle zum EUDIW bereitstellen müssen (Art 45g Abs 2 eIDAS-VO).    &lt;br /&gt;
&lt;br /&gt;
Art 45h eIDAS-VO enthält Datenschutzvorschriften für die Erbringung von Diensten für EAA: &lt;br /&gt;
&lt;br /&gt;
# Kein Kombinieren der Daten: Anbieter qualifizierter und nichtqualifizierter Dienste für EAA dürfen personenbezogene Daten in Bezug auf die Erbringung dieser Dienste nicht mit personenbezogenen Daten aus anderen von ihnen oder ihren Geschäftspartnern angebotenen Diensten kombinieren (Art 45h Abs 1 eIDAS-VO).&lt;br /&gt;
# Trennung der Daten: Personenbezogene Daten in Bezug auf die Erbringung von Diensten für EAA müssen von allen anderen vom Anbieter von EAA gespeicherten Daten logisch getrennt gehalten werden (Art 45h Abs 2 eIDAS-VO).&lt;br /&gt;
# Trennung der Dienste: Anbieter von EAA setzen die Bereitstellung solcher qualifizierter Vertrauensdienste auf eine Weise um, dass sie von anderen von ihnen bereitgestellten Diensten funktional getrennt ist  (Art 45h Abs 3 eIDAS-VO).&lt;br /&gt;
&lt;br /&gt;
=== Elektronische Vorgangsregister (electronic ledgers) ===&lt;br /&gt;
&lt;br /&gt;
== Verhältnis zu anderen Rechtsakten ==&lt;br /&gt;
&lt;br /&gt;
=== DSGVO ===&lt;br /&gt;
Art 2 eIDAS-VO normiert ausdrücklich, dass diese &amp;quot;unbeschadet der&amp;quot; DSGVO gilt. Dies ist so zu verstehen, dass ...&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Walter</name></author>
	</entry>
</feed>