Der Einsatz von Künstlicher Intelligenz im Gesundheitswesen. Ausgewählte haftungsrechtliche Probleme gegenüber Patienten


Bachelorarbeit, 2021

61 Seiten, Note: 1,7


Leseprobe


Inhaltsverzeichnis

Abkürzungsverzeichnis

A. Einleitung

B. KI im Überblick
I. Abgrenzung der „schwachen" KI zur „starken" KI
1. Expertensysteme
2. Lernende Systeme
II. Einsatz von KI im Gesundheitswesen
1. Anwendungen in der Medizin
2. Einordnung der KI-Systeme als Medizinprodukt
III. Zwischenfazit

C. Ausgewählte haftungsrechtliche Probleme
I. Herausforderungen für das Haftungsrecht
II. Vertragliche Haftung
1. Abschluss eines Behandlungsvertrages durch eine KI
a) Abgabe einer Willenserklärung durch eine KI
b) Zurechnung der Willenserklärung zum Betreiber
aa) Analoge Anwendung der Computererklärung
bb) KI als Erklärungsbote
cc) KI als Vertreter
c) Zwischenfazit
2. Haftung des Betreibers aus §§ 280 Abs. 1 i.V.m. 630a BGB ..
a) Schuldverhältnis
b) Pflichtverletzungen
c) Vertretenmüssen des Vertragsschuldners
aa) Verletzung von Verkehrs- und Sorgfaltspflichten
bb) Abweichung vom Facharztstandard
cc) Aufklärungsfehler
dd) Zurechnung des Verschuldens Dritter
d) Haftungsbegründende Kausalität
aa) Äquivalente Kausalität
bb) Adäquate Kausalität
e) Beweislast bei voll beherrschbaren Behandlungsfehlern..
f) Zwischenfazit
III. Deliktische Haftung / Produkthaftung
1. Haftung der KI aus § 823 Abs. 1 BGB
2. Haftung des Betreibers aus § 823 Abs. 1 BGB
a) Analogie zur vertraglichen Haftung des Betreibers
aa) Zurechnung des Verschuldens Dritter
bb) Beweislast bei voll beherrschbaren Behandlungsfehlern
b) Zwischenfazit
3. Haftung des Betreibers aus § 831 Abs. 1 BGB
4. Haftung des Herstellers aus § 1 ProdHaftG
a) Inanspruchnahme und Herstellerverantwortung
b) KI-Systeme als Produkt im Sinne des ProdHaftG
c) Vorliegen eines Fehlers
aa) Berechtigterweise zu erwartende Sicherheit
bb) Zeitpunkt des Inverkehrbringens
cc) Haftungsentlastung für Entwicklungsfehler
d) Beweislast
e) Zwischenfazit
5. Haftung des Herstellers aus § 823 Abs. 1 BGB
a) Verantwortlichkeit des Herstellers
b) Beweislast
c) Zwischenfazit

D. Mögliche Lösungsansätze
I. Einführung einer digitalen Rechtsperson
1. Abgrenzungsproblematik
2. Fehlende Vermögensfähigkeit
3. Fehlender Wille und fehlende Moralvorstellung
4. Zwischenfazit
II. Einführung einer Gefährdungshaftung des Betreibers

E. Fazit

Schrifttumsverzeichnis

Rechtsprechungsverzeichnis

Quellenverzeichnis

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

A. Einleitung

Die heutige Welt befindet sich in einem sehr rasanten digitalen Wandel. Der digitale Wandel sorgt nicht nur im privaten Umfeld für Veränderungen, sondern auch die Arbeitswelt befindet sich branchenübergreifend im Umbruch. Immer bedeutender werden die Themen Internet of Things und Künstliche Intelligenz (KI). Ein Smart Home, virtuelle Chatbots, Sprachassistenten oder das assistierte Fahren sind für viele Menschen bereits ein fester Bestandteil des Alltags.

Mit dem Einsatz von KI sollen vor allem digitale Innovationen geschaffen werden, die die deutsche Wettbewerbsfähigkeit erhalten1. Unter anderem hat die Bundesregierung hierzu die Strategie Künstliche Intelligenz im November 2018 verabschiedet. Diese sieht die Förderung von vielfältigen Anwendungsmöglichkeiten von KI in allen Bereichen der Gesellschaft vor. Deutschland soll zum führenden KI-Standort werden und hierbei soll immer der Nutzen für Mensch und Umwelt im Vordergrund stehen2. Es ist zu erwarten, dass der Einsatz von KI das gesellschaftliche Leben enorm verändern wird.

Ein vielversprechendes Anwendungsgebiet für den Einsatz ist die Medizin. Der Ausbau der Digitalisierung im Gesundheitswesen ist bereits zu spüren3. Neben der Einführung der elektronischen Patientenakte, der Telemedizin und des 3D- Drucks, wird immer mehr an dem Einsatz und dem Ausbau von künstlich intelligenten Systemen geforscht4. Durch den Einsatz von KI soll u. a. die Diagnostik von Krankheiten präziser und schneller erfolgen. Weiterhin sollen besonders schwere und chronische Krankheiten besser behandelt werden, indem die KI auf eine Vielzahl von Datensätzen zurückgreift und Muster und Gesetzmäßigkeiten erkennt5.

Auch der Abschluss von Behandlungsverträgen mit den Patienten6 und die Durchführung von Operationen und Behandlungen durch eine KI ist in der Zukunft durchaus denkbar.

Doch wem wird das Handeln der künstlich intelligenten Systeme zugerechnet, wenn ein System allein Verträge schließt, eigenständig lernt und Entscheidungen trifft? Diese Frage stellt sich vor allem dann, wenn es zu einem Behandlungsfehler kommt und von dem Patienten Schadensersatzansprüche oder Schmerzensgelder geltend gemacht werden. Wen soll ein Geschädigter in Anspruch nehmen, wenn kein Mensch, sondern ein System gehandelt hat und wie werden Beweise geführt? Es ist zu bedenken, dass das nationale Haftungsrecht nicht nur darauf abzielt, dass Geschädigte eine berechtigte Entschädigung erhalten, sondern auch einen wirtschaftlichen Anreiz für haftende Personen darstellt, Schäden zu vermeiden7. Diese Grundsätze sollten auch bei dem Einsatz von KI eingehalten werden.

Spezifische Haftungsregelungen für KI-Systeme gibt es im nationalen Recht noch nicht. Da KI somit auch aus juristischer Sicht Neuland ist, wird von vielen Seiten von der Legislative gefordert, dass neue Haftungsregelungen eingeführt werden müssen. Fraglich ist, ob dies notwendig ist oder das nationale Zivilrecht auf den Einsatz von KI im Gesundheitswesen bereits vorbereitet ist und lediglich einzelne Rechtsnormen angepasst werden müssen.

Es ist einleuchtend, dass neue Technologien erst erfolgreich am Markt eingeführt werden können, wenn der Einsatz von KI in der Gesellschaft akzeptiert wird und das wird erst der Fall sein, sofern zumindest klare rechtliche und ethische Regelungen und Leitlinien auf europäischer oder nationaler Ebene be- stehen8. Im Jahr 2020 hat der TÜV Verband eine repräsentative Unternehmensbefragung in Deutschland in Bezug auf den Einsatz von KI durchgeführt. Die Studienergebnisse zeigen, dass gerade einmal 11% der befragten Unternehmen derzeit KI einsetzen, allerdings auch 19% den Einsatz planen und diskutieren9. Weiterhin befürchten 42% der Befragten rechtliche Probleme und 81% gehen davon aus, dass in den meisten Unternehmen Verunsicherung herrscht, wenn es um den Einsatz von KI geht10. 61% der Unternehmen wünschen sich gesetzliche Regelungen, um die Haftung bei KI-Systemen zu klären11. Die Studie bestätigt, dass KI noch nicht flächendeckend Akzeptanz findet und ein Grund hierfür besonders auch in der Sorge vor rechtlichen Problemen liegen wird.

In der vorliegenden Bachelorarbeit wird untersucht, welche haftungsrechtlichen Fragestellungen bzw. Probleme sich bei dem Einsatz von KI im Gesundheitswesen gegenüber Patienten ergeben und ob die geforderte Einführung neuer Haftungsregelungen wirklich notwendig ist.

Hierzu wird zunächst eine Definition des Begriffs der KI herausgearbeitet und erläutert, wie der Einsatz im Gesundheitswesen erfolgen kann. Im Schwerpunkt werden sodann, beginnend mit dem Vertragsrecht, ausgewählte Haftungsrisiken analysiert. Es wird zudem geprüft, ob ein Vertragsabschluss durch eine KI rechtlich überhaupt möglich ist und eine KI somit Vertragsschuldner werden kann. Einzelne Rechtsnormen zum zivilrechtlichen Haftungsrecht werden auf die Anwendbarkeit geprüft und Problematiken herausgestellt. Abschließend werden mögliche Lösungsansätze skizziert.

B. KI im Überblick

KI ist ein Teilgebiet der Informatik, da KI auf Algorithmen basiert. Algorithmen sind programmierte Handlungsanweisungen, um ein Problem zu lösen12. Um KI rechtlich einordnen und haftungsrechtliche Probleme diskutieren zu können, bedarf es zunächst einer Definition.

Eine einheitliche Definition für den Begriff KI gibt es nicht13. Der Begriff wurde bereits Ende der 50er Jahre entwickelt und da sich die technischen Entwicklungen seitdem sehr stark verändert haben, muss der Begriff immer wieder neu eingeordnet werden14. Gemäß dem aktuellen Forschungsstand besitzt ein System oder eine Maschine künstliche Intelligenz, wenn intelligente Verhaltensweisen und Grundzüge gezeigt werden, die der Vorgehensweise eines Menschen ähneln15.

Um intelligent zu sein, muss das System die vier Kernfähigkeiten Wahrnehmen, Verstehen, Handeln und Lernen ausweisen16. Abstrakt bedeutet dies, dass die KI durch Sensoren wie Kameras, Mikrofone, Tastsensoren etc. die Umgebung wahrnimmt, die wahrgenommenen Daten erfasst, analysiert und interpretiert, aus diesen Schlussfolgerungen zieht und sie letztendlich umsetzt17. Besonders relevant sind hierbei die Fähigkeiten Verstehen und Lernen, denn auszeichnend für eine KI ist im Gegensatz zu einem klassischen EDV- System, dass die KI in diesen Kernfähigkeiten trainiert werden kann und somit fortlaufend bessere Ergebnisse erzielen wird18.

Es handelt sich im Wesentlichen immer um Programme zur Datenverarbeitung, also um Softwaresysteme19. Ein KI-System kann in unterschiedlichen Erscheinungsformen auftreten. Es kann rein softwarebasiert arbeiten (z. B. Sprachassistenten, Bilderkennungssysteme) oder in einer Hardware eingearbeitet sein (z. B. Roboter)20. Im Folgenden ist unter dem Begriff KI-System jede Form von KI-gestützter Software oder Hardware zu verstehen.

Im Speziellem gibt es unterschiedliche Ausprägungen von KI-Systemen und angewandte Methoden, die nachstehend abstrakt und vereinfacht dargestellt werden.

I. Abgrenzung der „schwachen“ KI zur „starken“ KI

Man kann zwischen zwei Arten der KI unterscheiden. Zum einen die „schwache" KI, die gegenwärtig bereits existiert, zum anderen die „starke" KI, die derzeit noch visionär ist21.

Die „starke" KI soll zukünftig in der Lage sein die meisten Aufgaben, zu denen auch ein Mensch befähigt ist, zu bewältigen22. Hierzu sind allerdings noch Forschungsentwicklungen notwendig, denn eine „starke" KI muss dann auch zu alltäglichem Denken und einem Ichbewusstsein in der Lage sein und mithin die Fähigkeit besitzen, ihren Zweck und das Ziel der Handlung selbst zu bestimmen23.

Systeme, die über „schwache" KI verfügen, sind hingegen vom Menschen so vorprogrammiert, dass sie eine wesentliche Aufgabe erledigen können24. Im Rahmen der bereits angewandten, „schwachen" KI-Systeme, gibt es Expertensysteme und lernende Systeme.

1. Expertensysteme

Bei Expertensystemen handelt es sich um KI-Systeme, die aufgrund einer großen Menge an Expertenwissen in Bezug auf ein spezifisches Fachgebiet Problemlösungen und Handlungsempfehlungen herleiten können25. Ein Expertensystem funktioniert, indem das Wissen und die Schlussfolgerungen durch Wenn-Dann-Funktionen vorprogrammiert werden26. Das System kann sich nicht verändern oder selbst optimieren.

2. Lernende Systeme

Lernende Systeme kennzeichnet im Gegensatz zu Expertensystemen, dass die Algorithmen ohne vorhergehende Programmierung für jeden Einzelfall insbesondere auch aus früheren Handlungen, gemachten Fehlern und Rückmeldungen lernen und das Verhalten bei neuen Situationen anpassen und optimieren können27. Der zuvor festgelegte Algorithmus wird verändert und das KI-System wird somit autonom tätig. Um dies zu erreichen wird häufig maschinelles Lernen eingesetzt. Ein Teilgebiet des maschinellen Lernens sind die künstlich neuronalen Netze, die durch ihre enorme Verknüpfung der Funktionsweise eines menschlichen Gehirns ähneln sollen28. Hierdurch können besonders komplexe Sachverhalte bewältigt werden, bei denen bisher angenommen wurde, dass sie einem Menschen vorbehalten sind. Werden große neuronale Netze eingesetzt, bezeichnet man dies als Deep Learning. Diese Methode zählt zu den derzeit erfolgreichsten Methoden im Rahmen von Künstlicher Intelligenz29.

II. Einsatz von KI im Gesundheitswesen

Das deutsche Gesundheitswesen leidet unter einem Fachkräftemangel, der sich in den kommenden Jahren immer weiter zuspitzen wird30. Durch den Einsatz von KI können Ärzte unterstützt werden, denn die Auswertung der großen vorhandenen Datenmenge kann durch eine KI schneller und effizienter erfolgen31. Im Vordergrund steht hierbei die Workflow-Unterstützung, Erfassung von Beschwerden, Diagnose von Krankheiten, Therapieentscheidung und die klinische Forschung durch ein KI-System32.

1. Anwendungen in der Medizin

Das bekannteste KI-System in der Medizin ist derzeit das Programm „Watson", das von IBM entwickelt wurde und vor allem in der Krebstherapie Anwendung finden wird, da das KI-System Daten aus verschiedensten Quellen zusammentragen und wichtige Zusammenhänge verstehen und wiedergeben kann33.

Auch wurde bei einer Forschung bereits bewiesen, dass ein autonom operierender Roboter Darmsegmente besser nähen kann als ein Chirurg34. Gegenwärtig unterstützen regelbasierte Expertensysteme bereits Radiologen bei Diagnosen oder der Auswertung von Röntgenaufnahmen (z. B. Erkennung von Tumoren, Infarkten oder Gewebestrukturen)35.

2. Einordnung der KI-Systeme als Medizinprodukt

KI-Systeme, die medizinische Informationen erzeugen, verarbeiten, verändern oder analysieren, gelten lex lata nach Art. 2 Nr. 1 MDR aufgrund der Softwareeigenschaft und der Zweckausrichtung als Medizinprodukte36. Das gilt auch dann, wenn die „Software nicht unmittelbar im oder am menschlichen Körper wirkt".37 Vor dem Inverkehrbringen und der Inbetriebnahme müssen Medizinprodukte ein Zulassungsverfahren durchlaufen38. Im Rahmen der Zulassung unterliegen sie einer Zuordnung zu Risikoklassen und einem Konformitätsbewertungsverfahren nach Art. 52 MDR39. Das hat zur Folge, dass KI- Systeme, die nach der Zulassung weiterhin lernen, theoretisch immer wieder erneut bewertet und zugelassen werden müssten40. Eine immer wieder neu durchzuführende Konformitätsbewertung könnte die Entwicklung innovativer KI-Systeme in der Medizin aufhalten41. Auf europäischer Ebene sind daher noch Entscheidungen zu treffen, wie zukünftig das Zulassungsverfahren von medizinischen KI-Systemen geregelt wird.

III. Zwischenfazit

KI ist sehr komplex und vielfältig gefächert. Der Einsatz von „schwacher" KI gewinnt immer stärker an Präsenz. In der Medizin führt die KI im Zusammenspiel mit den Ärzten bereits zu einer Steigerung der Effizienz und Qualität, so- dass diese zukünftig eine immer größere Rolle spielen wird. Die Vielfalt der technologischen Entwicklung zeigt deutlich, dass auch rechtlich keine pauschale Beurteilung erfolgen kann. Vielmehr ist eine detaillierte Betrachtung der jeweiligen Ausprägung erforderlich.

C. Ausgewählte haftungsrechtliche Probleme

Selbstverständlich wird auch ein KI-System nicht fehlerfrei agieren können und unweigerlich Schäden verursachen. Insbesondere im Gesundheitswesen können schnell sehr hohe Personenschäden entstehen, sodass die Verantwortung für Schäden bzw. Übernahme der Haftung gegenüber Patienten unumstritten feststehen sollte.

I. Herausforderungen für das Haftungsrecht

Die Handlungen von Expertensystemen sind durch die programmierten Wenn- Dann-Funktionen immer nachvollziehbar. Weiterhin handeln diese nur im vorprogrammierten Rahmen, sodass diese lediglich als Unterstützung für das Personal tätig werden und dies eine neue rechtliche Beurteilung nicht erforderlich macht42.

Fragestellungen in Bezug auf die Haftung ergeben sich daher derzeit vor allem bei dem Einsatz von lernenden KI-Systemen. Insbesondere das Verhalten von trainierten neuronalen Netzen kann aufgrund der Komplexität der Vernetzungen in Internet-of-Things-Umgebungen und der zunehmenden Autonomie zu einer eingeschränkten Nachvollziehbarkeit, Erklärbarkeit und Vorhersehbarkeit führen (sog. Black-Box-KI)43. Weiterhin benötigt das KI-System eine enorme Datenmenge, um lernen zu können. Enthalten die Trainingsdaten Verzerrungen, kann das System ggf. falsche Entscheidungen herleiten. Auch können KI-Systeme nach dem Inverkehrbringen durch Updates aktualisiert und verbessert werden44. Aufgrund der Offenheit muss mit Schäden aufgrund von Cyberangriffen gerechnet werden. Die Herausforderung für das nationale Haftungsrecht ist folglich die zunehmende Autonomie und die damit einhergehende Unvorhersehbarkeit und Intransparenz und Offenheit der neuen selbstlernenden Algorithmen45.

Im Folgenden werden speziell die haftungsrechtlichen Probleme in Bezug auf die Verantwortlichkeit, Kausalität und Beweisführung bei der Anwendung lernenden KI-Systeme als Medizinprodukte im stationären Krankenhausbereich untersucht.

II. Vertragliche Haftung

Die vertragliche Haftung spielt im Gesundheitswesen eine entscheidende Rolle, da mit den Patienten Behandlungsverträge geschlossen werden. Dies wirft auch die Frage auf, ob eine KI überhaupt eigenständig mit den Patienten kontrahieren kann und somit Vertragsschuldner wird.

1. Abschluss eines Behandlungsvertrages durch eine KI

Der Behandlungsvertrag ist in §§ 630a ff. BGB geregelt. Gemäß § 630a Abs. 1 BGB wird durch den Behandlungsvertrag derjenige, der die medizinische Behandlung eines Patienten zusagt (Behandelnder), zur Leistung der versprochenen Behandlung, der andere Teil (Patient) zur Gewährung der vereinbarten Vergütung verpflichtet. Damit ein wirksamer Behandlungsvertrag zustande kommt, bedarf es eines Antrags und einer Annahme, also zwei übereinstimmender Willenserklärungen i.S.v. §§ 145 ff. BGB.

a) Abgabe einer Willenserklärung durch eine KI

Eine Willenserklärung ist eine Willensäußerung, die darauf gerichtet ist, eine Rechtsfolge herbeizuführen46. Für die Wirksamkeit einer Willenserklärung bedarf es der Rechtsfähigkeit des Äußernden47. Träger von Rechten und Pflichten können ausschließlich natürliche und juristische Personen (Rechtssubjekte) sein48.

Eine KI hat keinen eigenen Willen, zumal ein Wille menschen- und nicht maschinenbasiert ist49. Weiterhin ist sie kein Rechtssubjekt und somit nicht rechts- oder geschäftsfähig50. Eine eigene Willenserklärung kann die KI somit nicht abgeben. Die Willenserklärung müsste daher immer einer hinter dem System stehenden Person automatisch zugerechnet werden können (z. B. dem Krankenhausträger)51.

b) Zurechnung der Willenserklärung zum Betreiber

Eine unmittelbare Zurechnung von Willenserklärungen autonomer Systeme zum Betreiber könnte sich dadurch ergeben, dass für die abgegebene Erklärung der KI das Recht der Computererklärung analog angewendet wird oder die autonome KI als Bote oder Stellvertreter tätig wird52.

aa) Analoge Anwendung der Computererklärung

Unter einer Computererklärung wird eine Willenserklärung verstanden, bei der die Erklärung mittels eines Computerprogramms und ohne menschliche Beteiligung, auf Grund vorheriger Programmierung, automatisiert erzeugt wird53. Automatisierte Willenserklärungen sind immer dem Betreiber zuzurechnen54. Die Kundgabe der KI wäre folglich nicht als eigene Willenserklärung, sondern als die Willenserklärung des Betreibers zu verstehen55.

Fraglich ist, ob die automatische Zurechnung der Willenserklärung möglich und für den Betreiber risikobehaftet ist. Hierzu muss beachtet werden, dass eine Willenserklärung im Wesentlichen aus zwei Tatbeständen - dem objektiven und dem subjektiven Tatbestand - besteht (§§ 133, 157 BGB)56. Es wird somit zwischen dem tatsächlichen Gesagtem und dem Gewolltem unterschieden.

Der objektive Tatbestand (das Gesagte) setzt die Kundgabe eines Rechtsfolgewillens voraus57. Aus diesem Grund ist es erforderlich, dass die KI eine Handlung vornimmt, durch die der Rechtsbindungswille des Betreibers deutlich wird. Äußert sich die KI ausdrücklich oder konkludent z. B. in Form eines Roboters gegenüber dem Patienten, um mit diesem einen Behandlungsvertrag zu schließen, ist dieser Tatbestand erfüllt, da es nur darum geht Erklärungen auszutauschen58.

Der subjektive Tatbestand (das Gewollte) wiederum ist vom inneren Willen geprägt und lässt sich in drei Elemente unterteilen: dem Handlungswillen, dem Erklärungsbewusstsein und dem Geschäftswillen59. Der Handlungswille ist der Wille, überhaupt eine Äußerung vornehmen zu wollen und der Erklärungswille ist der Wille, eine rechtserhebliche Erklärung abzugeben60. Diesen Handlungsund Erklärungswillen wird man dem Krankenhausträger, der das autonome KI- System bewusst in den Verkehr gebracht hat, um rechtserhebliche Erklärungen abzugeben, problemlos zurechnen können61. Die automatische Zurechnung könnte allerdings aufgrund des Geschäftswillens problematisch werden. Der Geschäftswille ist der Wille, durch ein Rechtsgeschäft eine bestimmte Rechtsfolge herbeiführen zu wollen62. Die lernende KI ist darauf ausgelegt, eigenständig zu entscheiden, ständig zu lernen und sich weiterzuentwickeln. Die Person hinter dem System hat ab einem gewissen Punkt keinen Einfluss darauf, dass die KI ein Rechtsgeschäft mit einem bestimmten Inhalt abschließt. Es wird für diese nicht mehr vorhersehbar welche Entscheidungen die KI trifft, sodass der Geschäftswille des Betreibers im Zweifel nicht erfüllt werden könnte63.

Eine automatische Zurechnung der Willenserklärung zum Betreiber analog der Computererklärung könnte für den Verwender ein enormes Risiko bedeuten64. Zu beachten ist auch, dass das Krankenhaus dann gemäß § 145 BGB an den abgegebenen Antrag gebunden wäre.

bb) KI als Erklärungsbote

Die KI könnte nur als Erklärungsbote für den Betreiber tätig werden. Ein Bote übermittelt lediglich eine fremde Willenserklärung65. Das Handeln ist nicht von rechtsgeschäftlicher Natur und der Bote muss daher auch nicht geschäftsfähig sein66.

Vorstellbar ist, dass das System von dem Betreiber zur Abgabe von bestimmten Willenserklärungen legitimiert wird und diese nur an die Vertragspartei übermittelt. Das Handeln wird dann ebenfalls dem Betreiber der KI zugerechnet67. Der Betreiber wird nur an die abgegebene Willenserklärung gebunden, sofern die KI als Erklärungsbote im Rahmen der Legitimation handelt68. Auch diese rechtliche Einstufung kann bei einem autonomen KI-System nicht angewendet werden. Sobald die KI diese Legitimation überschreitet und eigene, abweichende Entscheidungen trifft, handelt diese ohne Botenmacht69. Die abgegebene Willenserklärung ist somit gemäß der analogen Anwendung des § 177 Abs. 1 BGB schwebend unwirksam70. Dieser Ansatz lässt sich für autonome KI-Systeme daher ebenfalls nicht vertreten71.

cc) KI als Vertreter

Ein Stellvertreter gibt in Abgrenzung zum Boten eine eigene Willenserklärung ab und wird der rechtsgeschäftlich Handelnde72. Aufgrund der fehlenden Rechts- und Geschäftsfähigkeit und der Problematik, dass die KI keine eigene Willenserklärung abgeben kann, kommt ein Tätigwerden des KI-Systems als Stellvertreter gemäß §§ 164 ff. BGB nicht in Betracht73.

c) Zwischenfazit

Da ein KI-System nicht rechtsfähig ist, muss jede Willenserklärung, die durch eine KI abgegeben wird, dem Betreiber zugerechnet werden. Die KI selbst wird somit nicht Vertragspartner. Aufgrund der Autonomie der KI-Systeme wird es voraussichtlich oft eine Diskrepanz zwischen dem Willen des Betreibers und der Entscheidung der KI geben, sodass eine automatische Zurechnung im Sinne einer Computererklärung oder einer Botenschaft zu etlichen Haftungsproblemen für den Betreiber führt. Das nationale Recht kommt hier somit nach der aktuellen Rechtslage deutlich an seine Grenzen.

2. Haftung des Betreibers aus §§ 280 Abs. 1 i.V.m. 630a BGB

Auch wenn ein KI-System nicht Vertragsschuldner werden kann, ist der Einsatz im Rahmen der Behandlung möglich. Es stellt sich die Frage der vertraglichen Haftungsregelung gegenüber den Patienten.

Im Arzthaftungsrecht kommen keine speziellen Anspruchsgrundlagen, sondern die allgemeinen Haftungsgrundsätze des BGB zum Tragen74. Die Haftung aus einer schuldhaften Verletzung vertraglicher Pflichten ergibt sich somit aus §§ 280 Abs. 1 i.V.m. 630a BGB. Verletzt der Schuldner eine Pflicht aus dem Behandlungsvertrag und hat er diese Pflichtverletzung zu vertreten, so kann der Geschädigte gemäß § 280 Abs. 1 BGB Ersatz des hierdurch entstandenen Schadens verlangen.

a) Schuldverhältnis

Behandlungsverträge werden in der Regel zwischen dem Krankenhausträger und den Patienten geschlossen (totaler Krankenhausaufnahmevertrag)75. Dabei ist es unerheblich, wenn der die Behandlung Zusagende (Krankenhausträger) und der die Behandlung tatsächlich Durchführende (KI) personenverschieden sind76. Der Anspruchsgegner für Patienten ist somit der Krankenhausträger, also der Betreiber des KI-Systems.

b) Pflichtverletzungen

Bei vertraglichen Haftungsfragen ist es relevant, dass der Behandlungsvertrag ein besonderer Dienstvertrag und ausdrücklich kein Werkvertrag ist77. Die Vertragspartei verspricht keinen Erfolg und übernimmt somit auch keine Haftung, wenn die getroffenen Maßnahmen erfolglos bleiben, vielmehr stellen Behand- lungs- und Aufklärungsfehler Pflichtverletzungen dar78.

Ein Behandlungsfehler kann insbesondere in Folge einer fehlerhaften Diagnose, Therapie oder Organisation entstehen, sofern von der geschuldeten Leistung oder von dem Behandlungsmaßstab abgewichen wird79.

Das KI-System kann direkte Schäden durch eine falsche Handlung oder Entscheidung herbeiführen. Aber auch den Betreiber treffen in Bezugnahme auf die Inbetriebnahme, der Nutzung und der Organisation des KI-Systems entsprechende Pflichten, deren Verletzung indirekt zu einem Schaden führen können80.

c) Vertretenmüssen des Vertragsschuldners

Die Schadensersatzpflicht des Betreibers tritt gemäß § 280 Abs. 1 BGB nur ein, wenn er die Pflichtverletzung auch zu vertreten hat. Es muss ein fahrlässiges oder vorsätzliches Verhalten nach §§ 276, 278 BGB vorliegen.

aa) Verletzung von Verkehrs- und Sorgfaltspflichten

Von zentraler Bedeutung ist § 276 Abs. 2 BGB. Demnach liegt eine fahrlässige Handlung vor und es wird eine vertragliche Haftung nach § 280 Abs. 1 BGB ausgelöst, sofern die im Verkehr erforderliche Sorgfalt durch den Vertragsschuldner nicht eingehalten wird81. Die Handlung kann sowohl ein positives Tun als auch ein pflichtwidriges Unterlassen sein82.

Allgemein liegt eine fahrlässige Verletzung der Verkehrspflicht vor, wenn die Gefahr vorhersehbar und der Schaden vermeidbar war83. Die Entwicklung von Risiken, die zum Zeitpunkt der Inverkehrbringung nicht vorhersehbar waren, sind nicht Gegenstand von Verkehrspflichten84. Als Sorgfaltspflichtmaßstab dient der Erkenntnisstand von Wissenschaft und Technik85. Führt die KI also eine Handlung aus oder trifft eine Entscheidung, die nach dem Stand der Wissenschaft und Technik nicht vorhersehbar war, kann keine Verletzung der Verkehrspflichten durch den Betreiber vorliegen. Aufgrund der Ausrichtung der Systeme, kann allerdings mit der Inbetriebnahme davon ausgegangen werden, dass das System auch falsche Entscheidungen trifft oder eine Handlung falsch durchführt. Die Gefahr einer schädigenden Handlung aufgrund der Ausrichtung der Systeme ist vorhersehbar.

[...]


1 https://www.bmwi.de/Redaktion/DE/Dossier/digitalisierung.html, zuletzt abgerufen am 06.01.2021.

2 BMWi, Strategie Künstlicher Intelligenz der Bundesregierung, 2018, 6.

3 Windeck/Förster, das Krankenhaus 4/2019, 290.

4 Windeck/Förster, das Krankenhaus 4/2019, 290.

5 Bundespresseamt, Digitalisierung gestalten - Umsetzungsstrategie der Bundesregierung, 2020, 58.

6 Genderhinweis: Aus Gründen der Lesbarkeit wird in der vorliegenden Arbeit die männliche Form gewählt. Nichtsdestotrotz beziehen sich die Angaben auf Angehörige aller Geschlechter (m/w/d) und es wird keine Benachteiligung anderer Geschlechter impliziert.

7 Parlamentsbericht, Voss, A9-0178/2020, 5.

8 Elmas, DIN-Mitteilungen + elektronorm 99/2020, 6.

9 TÜV-Verband, Studienbericht 2020, Künstliche Intelligenz in Unternehmen, 11.

10 TÜV-Verband, Studienbericht 2020, Künstliche Intelligenz in Unternehmen, 6, 46.

11 TÜV-Verband, Studienbericht 2020, Künstliche Intelligenz in Unternehmen, 50.

12 Ory/Sorge, NJW 2019, 710.

13 BMWi, Strategie Künstlicher Intelligenz der Bundesregierung, 2018, 4.

14 Bitkom / DFKI: Künstliche Intelligenz - Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung, 2017, 14.

15 Bitkom / DFKI: Künstliche Intelligenz - Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung, 2017, 28.

16 Bitkom / DFKI: Künstliche Intelligenz - Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung, 2017, 29.

17 HEG-KI, Eine Definition der KI, 2019, 1f.

18 Bitkom / DFKI: Künstliche Intelligenz - Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung, 2017, 31.

19 HEG-KI, Eine Definition der KI, 2019, 6.

20 COM(2018) 237 final, 1.

21 Bitkom / DFKI: Künstliche Intelligenz - Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung, 2017, 29.

22 HEG-KI, Eine Definition der KI, 2019, 5.

23 HEG-KI, Eine Definition der KI, 2019, 6.

24 HEG-KI, Eine Definition der KI, 2019, 5.

25 https://www.bigdata-insider.de/was-ist-ein-expertensystem-a-819539/, zuletzt abgerufen am 07.01.2021.

26 https://www.bigdata-insider.de/was-ist-ein-expertensystem-a-819539/, zuletzt abgerufen am 07.01.2021.

27 HEG-KI, Eine Definition der KI, 2019, 3; Sahm, MedR 2019, 928.

28 HEG-KI, Eine Definition der KI, 2019, 4.

29 HEG-KI, Eine Definition der KI, 2019, 4.

30 https://www.bundesaerztekammer.de/fileadmin/user_upload/downloads/TB13_Fach- kraeftemangel1 .pdf, zuletzt abgerufen am 06.01.2021.

31 Schick/Paulus, das Krankenhaus 4/2019, 294.

32 Schick / Paulus, das Krankenhaus 4/2019, 294; Thun/Lehne, das Krankenhaus 4/2019, 286.

33 Kowalewski/Kriegmair/Michel, MedR 2019, 927.

34 Kowalewski/Kriegmair/Michel, MedR 2019, 927.

35 Schick/Paulus, das Krankenhaus 4/2019, 295.

36 Helle, MedR 2020, 994. Mit Wirkung zum 26.05.2021 tritt die Medizinprodukteverordnung (MDR) in Kraft. Es wird daher die künftige Rechtslage betrachtet.

37 EuGH, Urt. v. 07.12.2017, Az. C-329/16, PharmR 2018, 88.

38 Helle, MedR 2020, 995.

39 Helle, MedR 2020, 995.

40 Frost, MPR 2019, 120; Helle, MedR 2020, 995.

41 Frost, MPR 2019, 120.

42 Brand, MedR 2019, 947.

43 COM(2020) 64 final, 11; Sahm, MedR 2019, 928.

44 Westphalen, Produkthaftungsrechtliche Erwägungen beim Versagen Künstlicher Intelligenz (KI) unter Beachtung der Mitteilung der Kommission COM(2020) 64 final, VUR 2020, 248.

45 Denga, CR 2018, 70; Meyer, ZRP 2018, 235; Westphalen, ZIP 2019, 889.

46 Ellenberger, in: Palandt, Einf. v. § 116, Rn. 1; Pieper, GRUR-Prax 2019, 300.

47 Pieper, GRUR-Prax 2019, 300.

48 Ellenberger, in: Palandt, Einf. v. § 1 Rn. 1.

49 Grützmacher/Heckmann, CR 2019, 554.

50 Sester/Nitschke, CR 2004, 549f.

51 Pieper, GRUR-Prax 2019, 300.

52 Riehm / Meier, DGRI Jahrbuch 2018, Rn. 12.

53 Cornelius, MMR 2002, 354.

54 Ellenberger, in: Palandt, Einf. v. § 116, Rn. 1.

55 Riehm / Meier, DGRI Jahrbuch 2018, Rn. 12.

56 Grützmacher/Heckmann, CR 2019, 554; Lange, JA 2007, 687.

57 Ellenberger, in: Palandt, Einf. v. § 116, Rn. 1; Lange, JA 2007, 688.

58 Grützmacher/Heckmann, CR 2019, 554.

59 Ellenberger, in: Palandt, Einf. v. § 116, Rn. 1; Pieper, GRUR-Prax 2019, 300.

60 Ellenberger, in: Palandt, Einf. v. § 116, Rn. 1; Lange, JA 2007, 688, 689.

61 Pieper, GRUR-Prax 2019, 300.

62 Ellenberger, in: Palandt, Einf. v. § 116, Rn. 1; Lange, JA 2007, 689.

63 Grützmacher/Heckmann, CR 2019, 554; Pieper, GRUR-Prax 2019, 300.

64 Grützmacher/Heckmann, CR 2019, 554.

65 Schubert, in: MüKo BGB, § 164, Rn. 71.

66 Ellenberger, in: Palandt, Einf. v. § 164, Rn.

67 Schubert, in: MüKo BGB, § 164, Rn. 73.

68 Schubert, in: MüKo BGB, § 164, Rn. 73.

69 Schubert, in: MüKo BGB, § 164, Rn. 79.

70 Schubert, in: MüKo BGB, § 164, Rn. 79; Ellenberger, in: Palandt, Einf. v. § 164, Rn. 11.

71 Grützmacher/Heckmann, CR 2019, 555.

72 Ellenberger, in: Palandt, Einf. v. § 164, Rn. 11.

73 Grützmacher/Heckmann, CR 2019, 555.

74 Wagner, in: Müko BGB, § 630a, Rn. 105.

75 Weidenkaff, in: Palandt, § 630a, Rn. 4; Brox/Walker, Besonderes Schuldrecht, § 22, Rn. 9.

76 BT-Drs. 17/10488, 18; Weidenkaff, in: Palandt, Vorb. v. § 630a, Rn. 3.

77 Wagner, in: MüKo BGB, § 630a, Rn. 3.

78 Jung/Lichtschlag-Traut/Ratzel, in: Ratzel/Luxenburger, Handbuch Medizinrecht, Kap. 14, Rn. 3.

79 Weidenkaff, in: Palandt, § 630a, Rn. 25, § 630h, Rn. 9.

80 Horner/Kaulartz, CR 2016, 8.

81 Horner/Kaulartz, CR 2016, 8.

82 Sprau, in: Palandt, § 823, Rn. 2.

83 Grüneberg, in: Palandt, § 276, Rn. 20f.

84 Denga, CR 2018, 73.

85 Denga, CR 2018, 74; Spindler, CR 2015, 770f.

Ende der Leseprobe aus 61 Seiten

Details

Titel
Der Einsatz von Künstlicher Intelligenz im Gesundheitswesen. Ausgewählte haftungsrechtliche Probleme gegenüber Patienten
Hochschule
Fachhochschule Bielefeld
Note
1,7
Autor
Jahr
2021
Seiten
61
Katalognummer
V1000907
ISBN (eBook)
9783346374844
ISBN (Buch)
9783346374851
Sprache
Deutsch
Schlagworte
einsatz, künstlicher, intelligenz, gesundheitswesen, ausgewählte, probleme, patienten
Arbeit zitieren
Lisa Osterloh (Autor:in), 2021, Der Einsatz von Künstlicher Intelligenz im Gesundheitswesen. Ausgewählte haftungsrechtliche Probleme gegenüber Patienten, München, GRIN Verlag, https://www.grin.com/document/1000907

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Der Einsatz von Künstlicher Intelligenz im Gesundheitswesen. Ausgewählte haftungsrechtliche Probleme gegenüber Patienten



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden