In der Bachelorarbeit wird untersucht, welche haftungsrechtlichen Fragestellungen beziehungsweise Probleme sich bei dem Einsatz von KI im Gesundheitswesen gegenüber Patienten ergeben und ob die geforderte Einführung neuer Haftungsregelungen wirklich notwendig ist.
Wem wird das Handeln von künstlich intelligenten Systeme im Gesundheitswesen zugerechnet, wenn ein System allein Verträge schließt, eigenständig lernt und Entscheidungen trifft? Diese Frage stellt sich vor allem dann, wenn es zu einem Behandlungsfehler kommt und von dem Patienten Schadensersatzansprüche oder Schmerzensgelder geltend gemacht werden. Wen soll ein Geschädigter in Anspruch nehmen, wenn kein Mensch, sondern ein System gehandelt hat und wie werden Beweise geführt? Es ist zu bedenken, dass das nationale Haftungsrecht nicht nur darauf abzielt, dass Geschädigte eine berechtigte Entschädigung erhalten, sondern auch einen wirtschaftlichen Anreiz für haftende Personen darstellt, Schäden zu vermeiden. Diese Grundsätze sollten auch bei dem Einsatz von KI eingehalten werden.
Spezifische Haftungsregelungen für KI-Systeme gibt es im nationalen Recht noch nicht. Da KI somit auch aus juristischer Sicht Neuland ist, wird von vielen Seiten von der Legislative gefordert, dass neue Haftungsregelungen eingeführt werden müssen. Fraglich ist, ob dies notwendig ist oder das nationale Zivilrecht auf den Einsatz von KI im Gesundheitswesen bereits vorbereitet ist und lediglich einzelne Rechtsnormen angepasst werden müssen.
Inhaltsverzeichnis
A. Einleitung
B. KI im Überblick
I. Abgrenzung der „schwachen“ KI zur „starken“ KI
1. Expertensysteme
2. Lernende Systeme
II. Einsatz von KI im Gesundheitswesen
1. Anwendungen in der Medizin
2. Einordnung der KI-Systeme als Medizinprodukt
III. Zwischenfazit
C. Ausgewählte haftungsrechtliche Probleme
I. Herausforderungen für das Haftungsrecht
II. Vertragliche Haftung
1. Abschluss eines Behandlungsvertrages durch eine KI
a) Abgabe einer Willenserklärung durch eine KI
b) Zurechnung der Willenserklärung zum Betreiber
aa) Analoge Anwendung der Computererklärung
bb) KI als Erklärungsbote
cc) KI als Vertreter
c) Zwischenfazit
2. Haftung des Betreibers aus §§ 280 Abs. 1 i.V.m. 630a BGB
a) Schuldverhältnis
b) Pflichtverletzungen
c) Vertretenmüssen des Vertragsschuldners
aa) Verletzung von Verkehrs- und Sorgfaltspflichten
bb) Abweichung vom Facharztstandard
cc) Aufklärungsfehler
dd) Zurechnung des Verschuldens Dritter
d) Haftungsbegründende Kausalität
aa) Äquivalente Kausalität
bb) Adäquate Kausalität
e) Beweislast bei voll beherrschbaren Behandlungsfehlern
f) Zwischenfazit
III. Deliktische Haftung / Produkthaftung
1. Haftung der KI aus § 823 Abs. 1 BGB
2. Haftung des Betreibers aus § 823 Abs. 1 BGB
a) Analogie zur vertraglichen Haftung des Betreibers
aa) Zurechnung des Verschuldens Dritter
bb) Beweislast bei voll beherrschbaren Behandlungsfehlern
b) Zwischenfazit
3. Haftung des Betreibers aus § 831 Abs. 1 BGB
4. Haftung des Herstellers aus § 1 ProdHaftG
a) Inanspruchnahme und Herstellerverantwortung
b) KI-Systeme als Produkt im Sinne des ProdHaftG
c) Vorliegen eines Fehlers
aa) Berechtigterweise zu erwartende Sicherheit
bb) Zeitpunkt des Inverkehrbringens
cc) Haftungsentlastung für Entwicklungsfehler
d) Beweislast
e) Zwischenfazit
5. Haftung des Herstellers aus § 823 Abs. 1 BGB
a) Verantwortlichkeit des Herstellers
b) Beweislast
c) Zwischenfazit
D. Mögliche Lösungsansätze
I. Einführung einer digitalen Rechtsperson
1. Abgrenzungsproblematik
2. Fehlende Vermögensfähigkeit
3. Fehlender Wille und fehlende Moralvorstellung
4. Zwischenfazit
II. Einführung einer Gefährdungshaftung des Betreibers
E. Fazit
Zielsetzung & Themen
Die Arbeit untersucht die haftungsrechtlichen Fragestellungen und Probleme, die sich beim Einsatz von Künstlicher Intelligenz im Gesundheitswesen gegenüber Patienten ergeben, und prüft, ob die Forderung nach neuen Haftungsregelungen de lege ferenda notwendig ist oder das bestehende nationale Zivilrecht ausreicht.
- Grundlagen und Definition der Künstlichen Intelligenz sowie ihr Einsatz in der Medizin.
- Analyse der vertraglichen Haftung, insbesondere im Hinblick auf den Behandlungsvertrag und die Zurechenbarkeit von KI-Entscheidungen.
- Untersuchung der deliktischen Haftung und der Produkthaftung des Herstellers.
- Diskussion möglicher Lösungsansätze, wie die Einführung einer digitalen Rechtsperson oder einer Gefährdungshaftung.
- Bewertung der geltenden Rechtslage hinsichtlich der Beweislast und der Kausalität bei KI-induzierten Schäden.
Auszug aus dem Buch
C. Ausgewählte haftungsrechtliche Probleme
Selbstverständlich wird auch ein KI-System nicht fehlerfrei agieren können und unweigerlich Schäden verursachen. Insbesondere im Gesundheitswesen können schnell sehr hohe Personenschäden entstehen, sodass die Verantwortung für Schäden bzw. Übernahme der Haftung gegenüber Patienten unumstritten feststehen sollte.
I. Herausforderungen für das Haftungsrecht
Die Handlungen von Expertensystemen sind durch die programmierten Wenn-Dann-Funktionen immer nachvollziehbar. Weiterhin handeln diese nur im vorprogrammierten Rahmen, sodass diese lediglich als Unterstützung für das Personal tätig werden und dies eine neue rechtliche Beurteilung nicht erforderlich macht.
Fragestellungen in Bezug auf die Haftung ergeben sich daher derzeit vor allem bei dem Einsatz von lernenden KI-Systemen. Insbesondere das Verhalten von trainierten neuronalen Netzen kann aufgrund der Komplexität der Vernetzungen in Internet-of-Things-Umgebungen und der zunehmenden Autonomie zu einer eingeschränkten Nachvollziehbarkeit, Erklärbarkeit und Vorhersehbarkeit führen (sog. Black-Box-KI). Weiterhin benötigt das KI-System eine enorme Datenmenge, um lernen zu können. Enthalten die Trainingsdaten Verzerrungen, kann das System ggf. falsche Entscheidungen herleiten. Auch können KI-Systeme nach dem Inverkehrbringen durch Updates aktualisiert und verbessert werden. Aufgrund der Offenheit muss mit Schäden aufgrund von Cyberangriffen gerechnet werden. Die Herausforderung für das nationale Haftungsrecht ist folglich die zunehmende Autonomie und die damit einhergehende Unvorhersehbarkeit und Intransparenz und Offenheit der neuen selbstlernenden Algorithmen.
Im Folgenden werden speziell die haftungsrechtlichen Probleme in Bezug auf die Verantwortlichkeit, Kausalität und Beweisführung bei der Anwendung lernenden KI-Systeme als Medizinprodukte im stationären Krankenhausbereich untersucht.
Zusammenfassung der Kapitel
A. Einleitung: Diese Einleitung führt in den digitalen Wandel und die steigende Bedeutung von KI im Gesundheitswesen ein und formuliert die grundlegende Forschungsfrage nach der notwendigen Anpassung des Haftungsrechts.
B. KI im Überblick: Dieses Kapitel definiert den Begriff der Künstlichen Intelligenz, grenzt schwache von starker KI ab und erläutert den Einsatz sowie die regulatorische Einordnung medizinischer KI-Systeme als Medizinprodukte.
C. Ausgewählte haftungsrechtliche Probleme: Der Hauptteil analysiert detailliert die vertragliche Haftung des Betreibers, die deliktische Haftung sowie die Produkthaftung des Herstellers bei KI-Systemen im medizinischen Kontext.
D. Mögliche Lösungsansätze: Hier werden alternative Lösungsansätze für die identifizierten Haftungslücken diskutiert, darunter die Einführung einer digitalen Rechtsperson sowie eine Gefährdungshaftung des Betreibers.
E. Fazit: Das Fazit fasst die Ergebnisse zusammen und kommt zu dem Schluss, dass der aktuelle Rechtsrahmen einer Anpassung bedarf, wobei eine Gefährdungshaftung des Betreibers vorzuziehen ist.
Schlüsselwörter
Künstliche Intelligenz, Haftungsrecht, Behandlungsvertrag, Medizinprodukt, Patientensicherheit, Produkthaftung, KI-Systeme, Vertragsrecht, Beweislast, Zurechnung, Algorithmen, autonomes Handeln, Deliktshaftung, Haftungslücke, Gefährdungshaftung.
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Bachelorarbeit untersucht die haftungsrechtlichen Herausforderungen, die entstehen, wenn Künstliche Intelligenz im Gesundheitswesen bei der Behandlung von Patienten eingesetzt wird.
Was sind die zentralen Themenfelder der Arbeit?
Die Schwerpunkte liegen auf der vertraglichen Haftung von Krankenhausträgern, der deliktischen Haftung sowie der Produkthaftung von Herstellern beim Einsatz komplexer, lernender KI-Systeme.
Was ist das primäre Ziel oder die Forschungsfrage?
Es wird untersucht, ob das bestehende nationale Zivilrecht für die besonderen Risiken autonomer KI-Systeme ausreichend vorbereitet ist oder ob der Gesetzgeber neue, spezifische Haftungsregelungen schaffen muss.
Welche wissenschaftliche Methode wird verwendet?
Die Autorin nutzt eine rechtsdogmatische Analyse des geltenden Zivilrechts in Kombination mit einer Auswertung aktueller juristischer Fachliteratur, Rechtsprechung und europäischer Gesetzgebungsdokumente.
Was wird im Hauptteil der Arbeit behandelt?
Der Hauptteil analysiert die Möglichkeiten der Vertragsgestaltung, die Problematik der Zurechnung von Willenserklärungen durch KI, Fragen der Kausalität sowie die Schwierigkeiten bei der Beweislastverteilung für Patienten.
Welche Schlüsselwörter charakterisieren die Arbeit?
Neben dem zentralen Begriff der Künstlichen Intelligenz spielen Rechtsbegriffe wie Haftungslücke, Medizinprodukt, Gefährdungshaftung, Produkthaftung und Beweislastumkehr eine entscheidende Rolle.
Wie bewertet die Autorin die Einführung einer "digitalen Rechtsperson"?
Die Autorin sieht die Einführung einer digitalen Rechtsperson (ePerson) als kritisch an, da dies ethische und grundrechtliche Fragen aufwirft und die praktische Umsetzung aufgrund fehlender Moralvorstellungen und Vermögensfähigkeit von KI schwierig erscheint.
Welche Empfehlung gibt die Autorin für die Zukunft?
Sie empfiehlt, anstelle einer digitalen Rechtsperson eine Gefährdungshaftung des Betreibers einzuführen, die subsidiär zur Produkthaftung wirkt und eine faire Risikoverteilung zwischen Hersteller und Betreiber ermöglicht.
- Citar trabajo
- Lisa Osterloh (Autor), 2021, Der Einsatz von Künstlicher Intelligenz im Gesundheitswesen. Ausgewählte haftungsrechtliche Probleme gegenüber Patienten, Múnich, GRIN Verlag, https://www.grin.com/document/1000907