Der rechtliche Bearbeitungsstand der Masterthesis (Juni 2024) entspricht der veröffentlichten KI-Verordnung (EU) 2024/1689 vom 12. Juli 2024 (ABl. Reihe L).
Die Masterthesis beinhaltet neben der Darstellung der Strategie und Ziele der Europäischen Union sowie der Vorschriften des Europäischen Rechtsrahmens für Künstliche Intelligenz, schwerpunktmäßig die rechtlichen Anforderungen und Risiken für Unternehmen in der Praxis. Hierbei werden auch Empfehlungen und mögliche Compliance-Maßnahmen aufgeführt, um etwaigen Risiken in der rechtlichen Praxis bis zum Inkrafttreten der gesetzlichen Vorgaben der KI-Verordnung rechtzeitig vorzubeugen. Weiterhin werden in den Ausführungen datenschutzrechtliche Aspekte einbezogen und der Entwurf der KI-Haftungsrichtlinie sowie die Neuerungen des Entwurfs der EU-Haftungsrichtlinie für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates (ProdHaft-RL) vorgestellt.
Inhaltsverzeichnis
A. Einleitung
B. Rechtsrahmen und Regulierungsansatz der Europäischen Union
I. Strategie und Ziele der Union
II. Gründe für die Einführung eines Rechtsrahmens für KI
III. Historie und Entwicklung des Regulierungsansatzes (KI-VO-E)
1. KI-VO-E vom 21.04.2021
2. Trilog-Verhandlungen - KI-VO-E vom 21.01.2024 (geleakt)
3. KI-VO-E - 1. Legislative Lesung vom 13.03.2024
4. Plenarsitzung – KI-VO vom 17. April 2024 (Verabschiedeter Text)
C. Die KI-Verordnung (KI-VO) – “de lege ferenda”
I. Rechtsstand und erweiterter Regulierungsansatz der KI-VO
II. Rechtsgrundlage und Zweck der KI-VO
III. Bestehender Rechtsrahmen und weitere Regulierungen
IV. Anwendungsbereich der KI-VO vom 17.04.2024
1. Sachlicher Anwendungsbereich
a) Definition von KI-Systemen
b) Einstufung von KI-Systemen in den Anwendungsbereich der KI-VO
c) Ausnahmen vom sachlichen Anwendungsbereich
2. Persönlicher Anwendungsbereich
3. Geographischer Anwendungsbereich (Art. 2 KI-VO)
4. Anwendungsverhältnis zu anderen Rechtsvorschriften
V. Vorschriften der Europäischen KI-Verordnung
1. Überblick
2. Risikobasierter Ansatz und Kategorisierung der Systeme
a) Verbotene KI-Praktiken (Art. 5 KI-VO)
b) Hochrisiko-KI-Systeme
c) KI-Systeme mit allgemeinem Verwendungszweck (GPAI)
d) KI-Systeme mit allgemeinem Verwendungszweck mit systemischem Risiko
VI. Europäische Institutionen zur Überwachung und Durchsetzung der Vorschriften (Governance)
1. Büro für Künstliche Intelligenz (Art. 64 KI-VO)
2. Nationale Behörden
3. Europäisches Gremium für Künstliche Intelligenz (Art. 65 KI-VO)
4. Beratungsforum (Art. 67 KI-VO)
5. Wissenschaftliches Gremium (Art. 68 KI-VO)
6. Europäische Zentralbank (EZB)
VII. Rechtliche Anforderungen und Pflichten in der Praxis
1. Allgemeine Anforderungen an alle Akteure von KI-Systemen
a) Ethische Grundätze für vertrauenswürdige KI
b) Menschliche Aufsicht und KI-Kompetenz („AI Literacy“)
c) Transparenzpflichten (Art. 50 KI-VO)
2. Pflichten für Akteure beim Einsatz von Hochrisiko-KI-Systemen
a) Allgemeine Anforderungen an Hochrisiko-KI-Systeme (Abschnitt 2)
b) Weitere Pflichten für Anbieter (Abschnitt 3)
c) Pflichten der Einführer
d) Pflichten der Händler
e) Pflichten der Betreiber
f) Verantwortlichkeiten entlang der Wertschöpfungskette
3. Pflichten für Anbieter von KI-Systemen mit allgemeinem Verwendungszweck
4. Pflichten für Anbieter von KI-Systemen mit allgemeinem Verwendungszweck mit systemischem Risiko
5. Zeitplan zur Umsetzung und Anwendung der Vorschriften
D. Umsetzung der rechtlichen Anforderungen in der Praxis
I. Vorab-Prüfungen bei einem KI-Einsatz im Unternehmen
II. Praktische Umsetzung der rechtlichen Anforderungen
1. Umsetzung der allgemeinen Anforderungen von allen Akteuren bei einem Einsatz von KI-Systemen
a) Beachtung der Ethik-Leitlinien
b) Menschliche Aufsicht und AI Literacy
c) Transparenzpflichten für bestimmte KI-Systeme (Art. 50 KI-VO)
2. Umsetzung der allgemeinen Pflichten für Akteure beim Einsatz von Hochrisiko-KI-Systemen
a) Einführung eines Risikomanagementsystems (Art. 9 KI-VO)
b) Daten und Daten-Governance (Art. 10 KI-VO)
c) Technische Dokumentation (Art. 11 KI-VO)
d) Aufzeichnungspflichten (Art. 12 KI-VO)
e) Erweiterte Transparenzpflicht (Art. 13 KI-VO)
f) Menschliche Aufsicht (Art. 14 KI-VO)
g) Konzipierung und Entwicklung von Hochrisiko-KI-Systemen (Art. 15 KI-VO)
3. Umsetzung der erweiterten Pflichten für Anbieter von Hochrisiko-KI-Systemen (Art. 16 KI-VO)
a) Einführung eines Qualitätsmanagements (Art. 17 KI-VO)
b) Aufbewahrungspflichten (Art. 18 KI-VO)
c) Protokollierung (Art. 19 KI-VO)
d) Konformitätsbewertungsverfahren, Registrierung und Kennzeichnung - Anforderungen (Art. 16 lit. f) bis i) KI-VO)
e) Korrekturmaßnahmen und Informationspflicht (Art. 20 KI-VO)
4. Überwachungspflichten -Einführung eines Systems zur Beobachtung nach dem Inverkehrbringen (Art. 72 KI-VO)
5. Verfahren zur Meldung eines schwerwiegenden Vorfalls
6. Durchführung von Testverfahren
a) Testverfahren im KI-Reallabor
b) Testverfahren unter Realbedingungen außerhalb von KI-Reallaboren
c) Besonderheiten für KMU und Start-up-Unternehmen
7. Umsetzung der Pflichten für Anbieter und Betreiber von KI-Modellen mit allgemeinem Verwendungszweck
a) Freiwillige Anwendung von Verhaltenskodizes
b) Transparenzmaßnahmen für bestimmte KI-Systeme
c) Technische Dokumentation und Besonderheiten
8. Umsetzung der Pflichten für Anbieter und Betreiber von KI-Modellen mit allgemeinem Verwendungszweck mit systemischem Risiko
a) Verfahren zur Einstufung (Art. 52 KI-VO)
b) Erweiterte Pflichten in der Praxis
III. Empfehlungen und Hinweise
1. Hinweise für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck zum Einstufungsverfahren (Art. 52 KI-VO)
a) Gegen-Nachweis zur Einstufung
b) Gegen-Antrag – Einstufung der Europäischen Kommission
c) Kontrolle von KI-Systemen mit allgemeinem Verwendungszweck
d) Transparenz und Schutz von Geschäftsgeheimnissen sowie von vertraulichen Informationen
e) Strategie zur Einhaltung des Urheberrechts
f) Erleichterungen für KMU und Start-up-Unternehmen
2. Hinweise für Anbieter von KI-Systemen mit allgemeinem Verwendungszweck mit systemischem Risiko
IV. Compliance-Maßnahmen
E. Risiken und Haftung in der Praxis
I. Mögliche Risiken und vertragliche Empfehlungen
1. Verantwortlichkeiten innerhalb der Wertschöpfungskette bei einem Einsatz von Hochrisiko-KI-Systemen
2. Hochrisiko-KI-Systeme als Sicherheitsbauteile von Produkten
3. Haftung für Testverfahren im Reallabor
II. Mögliche Haftung und Sanktionierungen
1. Haftung für technische Dokumentationen (Art. 91 KI-VO)
2. Haftung bei Nichteinhaltung von Verpflichtungszusagen
III. Änderungen und Harmonisierung der Haftungsvorschriften
1. Maßnahmen zur Anpassung und Rechtsstand
2. KI-Haftungsrichtlinie
a) Ziele und Regulierungsansätze
b) Regelungen der KI-Haftungsrichtlinie
3. Nationales Haftungsrecht
4. Produkthaftungsrichtlinie
IV. Datenschutzrechtliche Aspekte beim Einsatz von KI
F. Fazit
Zielsetzung & Themen
Die Arbeit analysiert den Europäischen Rechtsrahmen für Künstliche Intelligenz (KI) und untersucht die rechtlichen Anforderungen sowie praxisrelevanten Risiken für Unternehmen. Das zentrale Ziel ist es, Akteuren einen Leitfaden für die rechtssichere Implementierung von KI-Systemen unter Berücksichtigung der neuen KI-Verordnung (KI-VO) sowie flankierender Haftungsrichtlinien an die Hand zu geben.
- Analyse der regulatorischen Struktur der KI-Verordnung und ihrer Anwendungsbereiche
- Risikobasierte Kategorisierung von KI-Systemen und darauf aufbauende Compliance-Pflichten
- Umsetzung von Governance-Strukturen und Risikomanagement in Unternehmen
- Haftungsrechtliche Implikationen und datenschutzrechtliche Rahmenbedingungen
- Empfehlungen für die praktische Vorbereitung und Umsetzung der gesetzlichen Vorgaben
Auszug aus dem Buch
A. Einleitung
Die vierte industrielle Revolution erreichte vor knapp über einem Jahr ihren Höhepunkt mit der Entwicklung der Artificial Intelligence (AI) durch OpenAI mit ChatGPT und der weiterentwickelten Version GPT-4. Im Verlauf dieses Zeitraums ist die Künstliche Intelligenz (KI) im Alltag nahezu allgegenwärtig und hat insbesondere auch in der Praxis von Unternehmen Einzug gefunden. Im Alltag sind es z.B. Saugroboter, intelligente Smart-Kühlschränke und diverse andere Smart-Geräte sowie Sprachassistenten (z.B. Chatbots). In Unternehmen kann KI bspw. in Bewerbungsprozessen, in der Produktion (z.B. zur Verwaltung von Warenlagern) und im Dienstleistungsbereich (z.B. bei der Vertragsgestaltung) sowie in diversen anderen Bereichen eingesetzt werden. In der öffentlichen Verwaltung wird Künstliche Intelligenz z.B. für einen vollständig automatisierten Erlass von Verwaltungsakten genutzt. In diesem Kontext hat die Europäische Kommission einen weltweit ersten harmonisierten Rechtsrahmen entwickelt, den „Artificial Intelligence Act“ bzw. die KI-Verordnung.
Neben einem hohem Schutzniveau sollen Innovationen gefördert und die Entwicklung von KI-Systemen für Hersteller sowie das Inverkehrbringen durch Anbieter unterstützt und kontrolliert werden; ein Spannungsfeld in der Praxis zwischen Innovation und rechtlichen Anforderungen. Diese Masterthesis beinhaltet in den nachfolgenden Ausführungen neben der Darstellung der Strategie und Ziele der Europäischen Union sowie der Vorschriften des Europäischen Rechtsrahmens für Künstliche Intelligenz, schwerpunktmäßig die rechtlichen Anforderungen und Risiken für Unternehmen in der Praxis. Hierbei werden auch Empfehlungen und mögliche Compliance-Maßnahmen aufgeführt, um etwaigen Risiken in der rechtlichen Praxis bis zur Veröffentlichung der KI-Verordnung und dem Inkrafttreten der gesetzlichen Vorgaben rechtzeitig vorzubeugen. Weiterhin werden in den Ausführungen datenschutzrechtliche Aspekte einbezogen und der Entwurf der KI-Haftungsrichtlinie sowie die Neuerungen des Entwurfs der EU-Haftungsrichtlinie für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates (ProdHaft-RL) vorgestellt.
Zusammenfassung der Kapitel
A. Einleitung: Diese Einleitung führt in die zunehmende Allgegenwärtigkeit von KI-Systemen ein und erläutert die Zielsetzung der Arbeit, den europäischen Rechtsrahmen sowie Compliance-Anforderungen für Unternehmen darzustellen.
B. Rechtsrahmen und Regulierungsansatz der Europäischen Union: Dieses Kapitel erläutert die digitale Strategie der EU, die Ziele des KI-Gesetzes sowie die historische Entwicklung bis zur finalen Verabschiedung der KI-Verordnung.
C. Die KI-Verordnung (KI-VO) – “de lege ferenda”: Hier werden die Struktur, der Anwendungsbereich, die Risikoklassifizierung sowie die Governance-Strukturen der EU-KI-Verordnung detailliert analysiert.
D. Umsetzung der rechtlichen Anforderungen in der Praxis: Dieser Teil bietet konkrete Handlungsempfehlungen für Unternehmen, insbesondere zur Vorab-Prüfung, Risikomanagement-Systemen, technischer Dokumentation und organisatorischen Vorgaben.
E. Risiken und Haftung in der Praxis: Dieses Kapitel diskutiert die Auswirkungen auf die Produkthaftung, die KI-Haftungsrichtlinie sowie deliktische Haftungsszenarien nach nationalem Recht für Unternehmen.
F. Fazit: Das Fazit fasst die Relevanz der regulatorischen Vorgaben zusammen und weist auf die verbleibende Rechtsunsicherheit bis zur Implementierung in der Unternehmenspraxis hin.
Schlüsselwörter
Künstliche Intelligenz, KI-Verordnung, AI Act, Risikomanagement, Compliance, Hochrisiko-KI-Systeme, Produkthaftung, Datenschutz-Grundverordnung, KI-Haftungsrichtlinie, Transparenzpflichten, technische Dokumentation, Algorithmen, Governance, Machine Learning, EU-Rechtsrahmen
Häufig gestellte Fragen
Worum geht es in dieser Arbeit?
Die Arbeit behandelt den europäischen Rechtsrahmen für Künstliche Intelligenz und analysiert die daraus resultierenden Anforderungen und Risiken für Unternehmen in der Praxis.
Welche zentralen Themenfelder werden abgedeckt?
Zu den Schwerpunkten gehören der regulatorische Regulierungsansatz der EU, die KI-Verordnung mit ihren Pflichten für Akteure, Risikomanagement, Haftungsfragen sowie datenschutzrechtliche Aspekte beim KI-Einsatz.
Was ist das primäre Ziel der Forschungsfrage?
Das Ziel ist es, aufzuzeigen, wie Unternehmen die komplexen Anforderungen der KI-Verordnung rechtskonform umsetzen können, um rechtliche Unsicherheiten zu minimieren und Haftungsrisiken abzuwenden.
Welche wissenschaftlichen Methoden werden verwendet?
Die Arbeit basiert primär auf einer juristischen Analyse von europäischen Verordnungsentwürfen, Richtlinien sowie einer fundierten Literatur- und Quellenrecherche zum aktuellen Rechtsstand.
Was wird im Hauptteil der Arbeit behandelt?
Im Hauptteil liegt der Fokus auf der praktischen Umsetzung der KI-Regulierung, angefangen bei internen Compliance-Maßnahmen und Risikoprüfungen bis hin zur technischen Dokumentation und Qualitätsmanagement-Standards.
Welche Schlüsselwörter charakterisieren die Masterarbeit?
Wichtige Begriffe sind insbesondere KI-Verordnung, Risikomanagement, Compliance, Hochrisiko-KI-Systeme, Produkthaftung und Transparenzpflichten.
Wie definiert die KI-Verordnung den Begriff eines KI-Systems?
Die KI-VO definiert ein KI-System als maschinengestützte Software, die aus erhaltenen Eingaben Ziele wie Vorhersagen oder Entscheidungen ableitet, um physische oder virtuelle Umgebungen zu beeinflussen.
Was bedeutet der risikobasierte Ansatz konkret für Unternehmen?
Je höher das Sicherheitsrisiko eines KI-Systems für Grundrechte oder Gesundheit eingestuft wird, desto strenger sind die regulatorischen Anforderungen und Pflichten an die Akteure entlang der Wertschöpfungskette.
Gibt es Ausnahmen von der Anwendung der KI-Verordnung?
Ja, ausgenommen sind unter anderem militärische oder nationale Sicherheitszwecke sowie Systeme, die rein wissenschaftlichen Forschungs- oder Prototypenentwicklungszwecken dienen.
- Arbeit zitieren
- Anika Petzold (Autor:in), 2024, Der Europäische Rechtsrahmen für Künstliche Intelligenz (KI), München, GRIN Verlag, https://www.grin.com/document/1496229