KI-Nutzung in der Medizin unter dem Gesichtspunkt der Arzthaftung

Plädoyer für die Einführung eines gesetzlichen Schuldverhältnisses aus Gefährdung


Ausarbeitung, 2021

31 Seiten


Leseprobe

Inhaltsverzeichnis

Vorwort

Einleitung

A. Keine Medizin ohne Informationen
I. Definition der KI
II. Einteilung der KI
1. Starke KI
2. Schwache KI

B. System derArzthaftung
I. KI keine Rechtsperson
II. KI als Werkzeug
III. Fehlerhafte KI
IV. Produkt-/ Produzentenhaftung
1. KI als Methode
2. KI als Verarbeitungsergebnis
V. Produktfehler
1. Fehlerkategorien
2. Fehlerbeweis

C. KI im Rahmen der ärztlichen Behandlung
I. Ärztliche Vollverantwortung
II. Ärztliche Haftung
III. Produktfehler
1. Anspruchsgegner Hersteller
2. Anspruchsgegner Arzt
3. De lege ferenda: Haftung für KI-Fehler

D. Gefährdungshaftung für KI-Nutzer
I. Gefährdungshaftung
II. Gesetzliche Regelungsbeispiele ̶ Grundideen
1. Beispiele
2. Grundideen
III. Gefährdungshaftung im Gesundheitswesen
1. Patientenrechtegesetz
2. EU-Vorschlag für KI-Regeln
IV. Haftung für Technische Risiken

E. Fazit

Abkürzungen

Literatur/Quellen

Vorwort

In der Arzthaftung existieren zwei Haftungsgründe: die schuldhafte Verletzung vertraglicher Pflichten und/oder die schuldhafte Verwirklichung eines deliktischen Tatbestandes . Das Haftungssystem beruht auf der Benennung und Feststellung von konkreten Fehlern in der Behandlung des Patienten . Als Abweichung von einem anerkannt sachgerechten Behandlungsvorgehen lassen sich ärztliche Fehler nur dann erkennen , wenn das Gesamtgeschehen transparent ist und nachkontrolliert werden kann .

Der Einsatz der menschliches Verhalten/menschliche Entscheidungen nachbildenden Künstlichen Intelligenz (KI) ist zwar auch auf dem Feld der praktischen Medizin prinzipiell unverzichtbar . Er kann jedoch in Einzelfällen zu Problemen führen : wenn es nämlich darum geht , in Schadensfällen eine zugrundeliegende Programmierung nachvollziehen und bewerten oder die Validität eines programmierten Ergebnisses beurteilen zu können/zu müssen .

In Fällen gesundheitlicher Schadensfolgen , die durch die behandlungsbezogene Verwendung von KI-Technologien eingetreten sind – oder in denen sich eine konkrete Ursächlichkeit des KI-Einsatzes gerade nicht nachweisen lässt , würde sich der geltende Verschuldensgrundsatz in durchaus unbilliger Weise zum Nachteil des behandelten Patienten auswirken können .

Das kann nicht im Sinne des rechtlich besonders geschützten Arzt-Patienten-Verhältnisses sein . Deshalb sollte dem Gedanken nähergetreten werden , den diagnostischen/therapeutischen Gebrauch der medizinischen (vor allem der risikobehafteten) KI-Technik als potentielle Gefahrenquelle zu normieren und aus einer derartigen Behandlung für den Patienten resultierende Gesundheitsbeeinträchtigungen einer Gefährdungshaftung des Anwenders zu unterwerfen .

Passau, im März 2021 Wolfgang Neuefeind

Einleitung

Der Terminus „Künstliche Intelligenz“ (KI) ̶ englisch „Artificial Intelligence“ (AI) stammt von dem amerikanischen Informatiker John McCarthy (1927–2011) : bei einer wissenschaftlichen Tagung im Jahre 1956 war es um die Frage gegangen , ob Maschinen1 bestimmte Merkmale der menschlichen Intelligenz (u.a. Aspekte des Lernens) simulieren könnten . 2 So erklärt sich der Terminus KI aus sich selbst: durch (den natürlichen Paradigmen nachgebildetes) Imitieren , Studieren und Wiederholen3 sollen Informationen auf maschinelle Weise wahrgenommen und verarbeitet werden können . Unter das Label KI wird auch die Automatisierte Entscheidungsfindung – englisch „Automated Decision Making“ (ADM) – subsumiert . 4 Bei dem allfälligen Gebrauch des Akronyms KI muss man sich darüber im Klaren sein , dass eine sinnverstehende , selbstlernende , autonom schlussfolgernde und wertentscheidende KI derzeit noch (eher mehr als weniger) Utopie ist . 5 Eine besondere Herausforderung , die mit dem zunehmenden Einsatz von immensen Datenmengen zur Erreichung bestimmter Prozessziele verbunden ist , stellen die Transparenz und die Kontrollierbarkeit der auf künstlicher Intelligenz beruhenden Systeme dar . 6 Die gegenwärtig verfügbare KI besteht im Wesentlichen aus progammbasierten Informatiksystemen , bei denen der Programmierer im Vorhinein alle Eventualitäten bedacht und die entsprechenden Prozessregeln dafür bereit gestellt hat . 7

A. Keine Medizin ohne Informationen

Die Durchführung der ärztlich-medizinischen Aufgabe ist wesentlich darauf angewiesen , dass patientenbezogene Informationen (Gesundheitsdaten) erhoben , verarbeitet und ausgewertet werden (können) . 8 Die Datenverfügbarkeit ist demgemäß auch ein wesentlicher KI-Treiber in der Medizin . 9

I. Definition der KI

Als regelbasiert determiniertes System10 ist KI (kurz gesagt) die Sammelbezeichnung für eine Software (Programme und dazugehörige Daten) mit der (quasi intelligenten) Fähigkeit , bestimmte Aufgaben oder Fragestellungen durch die Verarbeitung von Informationen lösen zu können . 11

II. Einteilung der KI

Nach ihrem jeweiligen algorithmischen Potenzial wird die KI in eine starke und eine schwache eingeteilt . Unter dem Gesichtspunkt einer möglichen Interaktion mit dem Menschen werden die KI als Automat und die KI als Helfer/Partner unterschieden . 12

1. Starke KI

Als stark (englisch strong) gilt ein selbstlernendes (die Anwendungserfahrungen laufend einarbeitendes) System , das autonom und kreativ Resultate liefert . Nicht nur in der Medizin würde ein derartiges System aus heutiger Sicht indes großteils eine Art Blackbox darstellen , weil zwar der Input (die Eingabeinformationen) und der Output (die Ausgabeinformationen) bekannt wären , nicht aber die inneren Abläufe und die operativen Wege der Ergebnisfindung . 13

2. Schwache KI

Schwach (englisch weak) heißt die auf Anweisungen über definierte Abfolgeschritte arbeitende und zur Bewältigung definierter Aufgaben entwickelte KI . Sie vermag es , große und komplexe Datenmengen („Big Data“) zu analysieren und darin bestimmte Muster und Strukturen zu erkennen . Dazu zählt auch das „Deep Learning“: eine Methode des maschinellen Lernens mittels KNN , die aus Recheneinheiten (Neuronen) und wirkungsgerichteten Verbindungen (Kontaktstellen nach der Art von Synapsen) zwischen denselben bestehen . 14 sind die wesentliche Grundlage für die Entwicklung von lernenden Systemen : 15 über immer wieder neue Iterationen können diese Einheiten in die Lage versetzt werden , aus dem prozessverarbeiteten Datenvorrat (als eine Art Übungseffekt) bestimmte statistische Regelmäßigkeiten (Muster) herzuleiten . 16 Entsprechen indes spätere Anforderungen dem zugrundeliegenden Trainingsmaterial nicht genau genug , so können unvorhergesehene (in ihrer Auswirkung fehlerhafte) Zuordnungen die Folge sein.17

Im Gesundheitsbereich werden derartige Fähigkeiten in anwendungspraktischer Weise genutzt, z .B. dann , wenn

- es in der Diagnostik um die Analyse von radiologischen Bildgebungen geht (etwa von CT-/MRT-Bildern zur Befundung der gewonnenen Bilddaten [unauffällig – verdächtig – pathologisch] oder von zahnmedizinischen Röntgenaufnahmen zur Detektion von Karies auf approximalen Flächen) ,
- die automatisierte Analyse in der Schlaganfall-Bildgebung der Patientenselektion für die Behandlungsform der Thrombektomie dienen soll , 18
- eine Software zur automatischen Diagnose von TVT den Arzt bei der Positionierung und Führung des Ultraschallkopfes unterstützt sowie die Ultraschallbilder in Echtzeit analysiert , 19
- Laborwerte zum Aufschluss über etwaige Pathologien interpretiert werden müssen , 20
- Korrelationen zwischen den Sensor-Daten des Armbandträgers und den Anzeichen für einen Covid-19-Fall auf ihre Validität hin zu beurteilen sind , 21 Zahnimplantate Roboter-assistiert22 geplant und eingesetzt werden , 23 oder
- wenn die ressourcenbedingte Festlegung einer Rangreihung medizinischer Leistungen (bspw . nach Wichtigkeit oder nach Patientengruppen) vorgenommen werden muss . 24

Für den Bereich der Zahnmedizin wird darauf hingewiesen , dass einerseits bildgebende Verfahren zum Teil nicht sehr aussagekräftig seien und dass andererseits zahnärztliche Spezialisten bei der Entdeckung von Karies auf Bissflügelaufnahmen mindestens genauso exakt arbeiteten wie die neuronalen Netzwerke . 25

B. System der Arzthaftung

Der Arzt schuldet seinem Patienten aus Vertrag eine Behandlung nach dem jeweils aktuellen medizinischen Standard (vgl. § 630a Abse. 1 und 2 BGB):26 im Falle einer schuldhaften Pflichtverletzung tritt die Verpflichtung zum Ersatz des entstandenen Schadens ein (§ 280 Abs. 1 BGB) . Neben einer Haftung aus Vertragsverletzung greift gegebenenfalls die Schadensersatzhaftung aus Delikt (§ 823 Abs. 1 BGB bzw. § 823 Abs. 2 BGB iVm einem Schutzgesetz): Haftungsvoraussetzung sind (im Prinzip) die gleichen Sorgfaltspflichtverstöße wie bei der vertraglichen Haftung . 27

Diese allgemeinen zivilrechtlichen Haftungsregelungen gelten für die behandelnden Ärzte (und Krankenhäuser) auch dann , wenn sie bei der Behandlung der Patienten KI-basierte Medizinsysteme oder Systeme der automatisierten Entscheidungsfindung einsetzen . 28

- Den Standard bilden die zur Zeit der Behandlung aktuell anerkannten Regeln der ärztlichen Kunst – verstanden als eine Kombination aus den vorhandenen medizinwissenschaftlichen Erkenntnissen und der bewährten ärztlichen Erfahrung . 29 Diese fachlichen Regeln übernimmt das Recht für seinen Bereich als Maßstab für die rechtlich erforderliche Arztsorgfalt (§ 276 Abs. 2 BGB) . 30 Die ärztliche Haftung (auf Schadensersatz) unterliegt demzufolge dem Verschuldensprinzip: das gilt für die Haftung aus Vertragsverletzung (§ 280 Abs. 1 BGB) ebenso wie für jene aus Delikt (§ 823 BGB) . 31 Der behandelnde Arzt hat für die Einhaltung der professionellen Sorgfalt einzustehen (vgl unten C. II.) – er haftet dabei für jedes Verschulden, mithin auch für leichte und leichteste Fahrlässigkeit . 32
- Da der Zahnarztvertrag (der Vertrag zwischen dem Zahnarzt und seinem Patienten) ein Behandlungsvertrag im Sinne der §§ 630a ff. BGB ist , gelten die vorstehend dargestellten Rechtsregeln auch für den behandelnden Zahnarzt:33 der Zahnarzt ist daher dem Standard der zahnärztlichen Behandlungssorgfalt verpflichtet (§ 630a Abs. 2 BGB).34 Der zahnärztliche Standard wiederum definiert sich nach dem jeweils gesicherten Stand der zahnmedizinischen Wissenschaft und der akkreditierten zahnärztlichen Praxis.35

In diesem Zusammenhang ist darauf hinzuweisen , dass ein Übermaß an Diagnostik oder an Therapie rechtlich als eine Verletzung der ärztlichen Sicherungspflicht erscheint : das (zulässige) Maß und umgekehrt das (unzulässige und damit behandlungsfehlerhafte) Übermaß werden von dem jeweiligen medizinischen Standard bestimmt . 36 Bei jedem Übermaß kommt ein Verstoß gegen die ärztliche Pflicht zur Gefahren- und Schadensabwehr in Betracht ; 37 übermäßiges Behandeln belastet die gesundheitliche Befindlichkeit des Behandelten in überflüssiger Weise . 38 Als Beispiele seien genannt: die Überdosierung von Medikamenten (etwa eine überdosierte Injektion von Depotpenicillin im Rahmen einer prophylaktischen Behandlung39 oder eine fehlerhafte Infusionsbehandlung durch Überfüllung des Blutkreislaufes) , 40 die Chirurgie des Meniskusrisses bei mechanischen Symptomen , 41 die Gabe von Sauerstoff bei Patienten mit moderater COPD42 oder die Überkronung von gesunden Zähnen . 43 Eine besondere Erscheinungsform des Übermaßes wird mit dem Schlagwort „Defensivmedizin“ gekennzeichnet: gemeint ist eine Haltung , die die ärztliche Vorsicht gleichsam durch eine juristische Kautele ersetzt und mit Blick auf vermeintliche forensische Konsequenzen (insbesondere) zu viel an Diagnostik praktiziert . 44

I. KI keine Rechtsperson

Die KI besitzt (jedenfalls derzeit) keine eigene Rechtspersönlichkeit – sie ist kein rechtlicher Akteur . 45 Nach geltendem Recht scheidet sie als mögliches Haftungssubjekt daher von vorneherein aus ; das gilt namentlich auch für das Strafrecht, welches als Rechtssubjekt allein den Menschen kennt.46 Haftungsbelastet ist die menschliche, nicht die maschinelle Arbeit . 47 Die KI selbst ist mithin nicht haftbar für ihren schadensauslösenden Einsatz kann indes im Prinzip eine Haftung des Programmierers oder des Anwenders des Software-Agenten (des Algorithmus /des Roboters)48 in Betracht stehen : deshalb geht es rechtlich darum , die Zurechnungen und Verantwortlichkeiten bei der jeweiligen Anwendung von KI-Systemen zu klären . 49

II. KI als Werkzeug

Medizinisch - technische Gerätschaften (in ihrer jeweils vorhandenen modernsten Version)50 muss der behandelnde Arzt (zum Wohle des Patienten und zur Vermeidung eines [unter Umständen sogar groben] Behandlungsfehlers) dann einsetzen , wenn der medizinische Standard dies erfordert : 51 z.B. muss in der kritischen Phase des Geburtsvorgangs ununterbrochen von einem CTG-Gerät mit automatischem Zeitschreiber Gebrauch gemacht werden52 ̶ und das behandelnde Krankenhaus hat die Funktion eines Dosisleistungsmess-Instrumentes zu nutzen , um eine schädliche Strahlendosis während der therapeutischen Radiumapplikation zu vermeiden . 53 Umgekehrt muss aber eine Behandlungsmaßnahme nicht schon deshalb unerläßlich sein , weil sie medizintechnisch-apparativ möglich wäre . 54

- Die KI ist als (innovatives) Instrument / Werkzeug anzusehen , das der Anwender für die Beantwortung von Fragen und für die Lösung seiner Aufgaben einsetzt . 55 Der Arzt nutzt ein verfügbares KI-System zur förderlichen Erledigung seiner Behandlungsaufgabe . 56
- Die Letztverantwortung für sein Behandlungsvorgehen und seine Behandlungs­entscheidungen trägt immer der Arzt selbst (unten C. I.) : die auf den Patienten bezogene Bewertung der Daten und die individualisierte Anwendung der digitalen Informationen in dem konkreten Behandlungsfall bleiben dem Arzt vorbehalten ; 57 er entscheidet z.B. auch darüber , ob er einen Befundungsvorschlag des Systems als plausibel, im Ergebnis nachvollziehbar und wegweisend für die zu ergreifenden therapeutischen Maßnahmen akzeptieren kann und will oder nicht . 58
- Es ergibt sich mithin , dass die Rolle der KI bei der ärztlichen Behandlung (lediglich) eine instrumentelle und assistierende sein kann , sein soll und auch tatsächlich ist . 59

III. Fehlerhafte KI

Wenn die eingesetzte KI-Technologie aufgrund mangelhafter Qualität der Datensätze oder der Algorithmen60 im Einzelfall ein nach medizinfachlichen Beurteilungskriterien falsches oder für den Betroffenen nachteiliges Ergebnis auswirft (z.B. eine medizinisch objektiv unzutreffende Diagnose stellt oder eine falsche Objekt-Zuordnung vornimmt) , haftet der anwendende Arzt für seine daraus resultierenden medizinischen Folgemaßnahmen grundsätzlich nur dann , wenn ihn in Bezug auf die Nutzung des technischen Systems ein Verschuldensvorwurf – ein Sorgfaltsverstoß in Gestalt der fehlsamen System-Nutzung (§ 276 Abs. 2 BGB) ̶ trifft (vgl. oben B.) .

- Der Arzt braucht zwar nicht sämtliche immanenten Einzelheiten der von ihm bei der Behandlung zweckbestimmt (vgl. § 4 Abs. 1 MPBetreibV) eingesetzten medizinischen Technik zu verstehen : er muss sich aber mit der prinzipiellen Funktionsweise des Systems als solcher wenigstens insoweit vertraut machen , wie dies einem technisch aufgeschlossenen Menschen möglich und zumutbar ist . 61
- Die Bedienung des Systems muss der Arzt beherrschen und dessen Funktionstauglichkeit (einschließlich etwaiger Notfunktionen) muss er vor dem Einsatz selbst überprüfen oder überprüfen lassen : deshalb hat er die Gebrauchsanweisung zu beachten und die in der einschlägigen Literatur gegebenen Sicherheitshinweise zu kennen . 62
- In Bezug auf die Ergebnisse des Rechnerprozesses kann und wird ein Verschulden des agierenden Mediziners wegen deren Nichtvorhersehbarkeit in aller Regel nicht infrage kommen . 63
- Bei den sogenannten DIGA, die per Rezept verordnet werden können (§§ 33a, 139e SGB V) , 64 wird der Arzt auf die korrekte Funktionsweise des Medizinproduktes vertrauen dürfen , nachdem das Produkt CE-zertifiziert (§§ 6 , 9 MPG)65 und seine Anwendung durch das BfArM überprüft worden ist . 66

IV. Produkt-/ Produzentenhaftung

Bei der außervertraglichen Produkthaftung geht es um die Haftung des Herstellers/Quasiherstellers, des Importeurs oder (subsidiär) des Lieferanten (vgl. den weiten Hersteller-Begriff gemäß § 4 ProdHaftG) für Schäden (Personen- und Sachschäden) infolge der Benutzung eines Produktes , dem es an der erforderlichen Anwendungssicherheit mangelt .

- Die Haftung ist entweder gemäß § 1 Abs. 1 ProdHaftG eine verschuldensunabhängige (Gefährdungshaftung wegen fehlender Produktsicherheit) oder gemäß § 823 Abs. 1 BGB eine verschuldensabhängige (deliktische Haftung als Sonderfall der Verkehrssicherungspflicht)67 ̶ die Pflicht zur Sicherung der Teilnehmer eines bestimmten Verkehrskreises vor Schadensgefahren trifft jeden , der für diese Personen eine Gefahrenquelle schafft oder unterhält . 68
- Das MPG enthält keine eigenen Haftungsregeln . Deshalb haben die vorgenannten Haftungsbestimmungen des ProdHaftGes auch für die Hersteller von Medizinprodukten Geltung . 69
- Der weite Begriff des Medizinproduktes (§ 3 MPG) umfasst neben Apparaten , Instrumenten und Vorrichtungen auch Diagnostikgeräte und Herzschrittmacher mitsamt der jeweils dazugehörigen Software ; 70 Medizinprodukt ist auch eine Software, deren patientenbezogener Datenbestand (nicht lediglich der Archivierung dient , sondern) gemäß der Bestimmung des Herstellers die Funktion hat , den behandelnden Arzt bei seinen medizinischen Entscheidungen zu unterstützen . 71

[...]


1 Von lateinisch „machina“: Vorrichtung, Werkzeug.

2 www.bosch.com/de/stories (vom 30. Januar 2018).

3 Lobe, in: SZ vom 18.8.2020, S. 11.

4 Well, in: Automating Society Report 2020 (Januar 2021), S. 43.

5 Häntzschel, in: SZ vom 15.1.2019, S. 11 (mit Verweis auf den belgischen KI-Pionier Luc Steels).

6 Ethik-Kommission, S. 6; Kessler, in: Publik-Forum Nr. 21/2020; PM der AlgorithmWatch GmbH vom 28. 10.2020 (zu dem Automatic Society Report 2020).

7 Huber/Kuhlmann, in: LTO-Aktuelles vom 7.4.2018 (www.lto.de/recht/zukunft-digitale/kuenstliche-intelli- genz).

8 Feldmann/Gräber, in: www.uniklinikum-saarland.de>lernprogramme>medizinische-informationsverarbeitung- kapitel-4 (abgerufen Januar 2021).

9 Frederking et al., in Smart Service Welt (Hrsg.), Anwendung Künstlicher Intelligenz in der Medizin, Stand: September 2019, S. 10.2.

10 Hartmann/ Hoppe, KI & Recht kompakt, 1. Aufl. 2020, S. 24; Hartmann/ Hartmann, KI & Recht kompakt, 1. Aufl. 2020, S. 102.

11 Heckmann G+G Ausg. 10/2017, S. 35, 36; Simmerling Research & Results, Ausg. 4/2019, S. 18.

12 Urbach / Jöhnk, in: Aviso, Ausg. 01/20, S. 17.

13 Marckmann bei www.univatis.de>viewarticle>ki (vom 4.3.2019).

14 Kriesel, S. 35; Kreye, in: SZ vom 29.1.2021, S. 9.

15 Stellungnahme der Bundesregierung zum Weißbuch zur Künstlichen Intelligenz, S. 12 (vom 29.6.2020).

16 Hartmann/ Lohmann, S. 260 f.; Schwendicke / Krois, in: ZMK – www.zmk-aktuell.de/fachgebiete/kuenstliche- intelligenz (vom 23.8.2019).

17 Batschkus BayÄBl. 2019, 442.

18 Bauer / Reiter DÄBl. 2019, A-2200.

19 Bericht DÄBl. 2020, A-1822.

20 www.gg-digital.de>2019/05; www.bmbf.de/was-ki-fuer-die-medizin-bedeutet (vom 17.7.2019); www.retresco.de>lexikon>kuenstliche-intelligenz (Juli 2020); DEGUM - PM (Moderne Diagnostik) vom 11. 10.2019.

21 Klöckner / Olk, in: handelsblatt.com/technik/datenanalyse vom 12.11.2020.

22 (1) Von tschechisch „robot“: Frondienst. (2) Roboter erledigen wiederkehrende oder zeitintensive Arbeiten (Winkler, S. 693).

23 www.wissenschaft.de/gesundheit-medizin/dr-rob (vom 20 7.2004).

24 Dazu Katzenmeie r, in: Schmitz-Luhn/Bohmeier, S. 1 ff.; Friedrich / Buyx / Schöne - Seifert DÄBl.2009, A-1562.

25 Schwendicke / Krois. in: ZMK – www.zmk-aktuell.de/fachgebiete/kuenstliche-intelligenz (vom 23.8.2019).

26 So die Rechtsprechung bereits vor dem Inkrafttreten der behandlungsvertraglichen Kodifizierung durch das Patientenrechtegesetz vom 20.2.2013: BGHZ Band 144, 296 (Entscheidungsgründe Abschn. B. 1. c); BGH NJW 2000, 2737 (Tz. 22).

27 BGH NJW 1989, 767, 768; Janda, S. 314.

28 BT-Enquete-Kommission Künstliche Intelligenz, Komms.-Drucks. 19(27)94 vom 19.12.2019, S. 6.

29 Katzenmeier, in: Laufs/Katzenmeier/Lipp, X. Rn. 7.

30 Janda, S. 324; Hart DÄBl.2005, A-269.

31 Laufs, Rn. 539; Laufs/Uhlenbruck/ Laufs, § 3 Rn. 21; Lilie / Radke, S. 184; Deutsch JZ 2002, 588 f.

32 OLG Brandenburg VersR 2004, 199, 200; Medicus, Rn. 345.

33 Neuefeind, Zahnarztvertrag, S. 4.

34 Deutsch / Spickhoff, Rn. 571 ff; Palandt/ Weidenkaff, Vorb v § 630a Rn. 3.

35 Crasselt / Hülsmann ZWR 2004, 580, 582.

36 Deutsch / Spickhoff, Rn. 341

37 Deutsch / Spickhoff, Rn. 341.

38 Steffen, S. 35.

39 OLG Hamm VersR 1978, 285, 286.

40 OLG Hamm VersR 1986, 603, 604.

41 Medizinreport DÄBl 2018, A-1005.

42 Medizinreport DÄBl.2018, A-1005.

43 OLG Düsseldorf VersR1985, 456.

44 Laufs/Uhlenbruck/ Laufs, § 107 Rn. 7 ; Laufs, in: Laufs/Katzenmeier/Lipp, I. Rn. 26.

45 Beck, in: Interview mit Recht & Technik (www.healthcare-in-europe.com) vom 9.5.2018.

46 Wessels/Beulke/ Satzger, Rn. 124; Hartmann/ Lohmann, S. 262.

47 Vgl. Scholz, S. 82.

48 Denga CR 2018, 69.

49 Hilgendorf, 11. Kap. Rn. 26, 27; Hartmann/ Hartmann, S. 84; Riehm, in: Aviso, Ausg. 01/20, S. 30, 33.

50 Giesen, Rn. 118.

51 Palandt/ Weidenkaff, § 630a Rn. 35.

52 BGH NJW 1988, 2949, 2950.

53 BGH NJW 1989, 2321 (Gründe Abschn. II. 3. b).

54 BGH NJW1984, 2639 (Gründe Abschn. III. 3. b, bb).

55 www.bmbf.de/was-ki-fuer-die-medizin-bedeutet (vom 17.7.2019).

56 Elmer nach Mitteilung in www.univadis.de>viearticle>ki (vom 4.3.2019).

57 www.aerzteblatt.de/nachrichten/kuenstliche-intelligenz vom 16.11.2018; PM des Berufsverbandes Hart-­ mannbund e.V. zur Hauptversammlung 2018 (vom 19.11.2018).

58 Henke (Vorsitzender des MB) DÄBl.2019, A-1936, 1940.

59 GVG- Positionspapier zu Kernanforderungen an eine künstliche Intelligenz im Gesundheitswesen (PM der GVG Nr. 8/2020 vom 26.6.2020); Schlemmer (DKFZ) gem. Zit. DÄBl. 2020, A 2178 (KI ist ein Hilfssystem).

60 Budde et al. DÄBl. 2020, A-2412 f. (Studie zur Wahrnehmung der KI-basierten Assistenzsysteme durch Pati­- entenvertreter).

61 BGH NJW1978, 584, 585; Rieger, Rn. 312.

62 Vgl. OLG Nürnberg VersR 1970, 1061; Schneide r, S. 133, 134.

63 Hartmann/ Hartmann, S. 103.

64 DIGA sind digital-technologisch basierte MPe mit einer gesundheitsbezogenen Zweckbestimmung: Patienten - infos, Medikamentenpläne, Diagnostik-/Therapie-Software (BT-Drucks. 19/13438, S. 35) – die Versorgung mit DIGA ermöglicht die kassenärztliche Verordnung von „Apps auf Rezept“ (DÄBl. 2020, A-1480).

65 Mit der CE-Kennzeichnung seines MPes erklär t der Hersteller, dass das Produkt den Sicherheitsanforderungen der geltenden EU-Richtlinie (Art. 3 RL 93/42/EWG iVm Anhang I Abschn. I. 1.) genüge (vgl. Deutsch/ Spickhoff, Rn. 2064, 2065; Schmid, in: Frank/Schmid, S, 120): die CE-Kennzeichnung stellt aber kein besonderes Qualitätssiegel dar – sie ist vielmehr die notwendige rechtliche Voraussetzung für die Verkehrs- und Marktfähigkeit der MPe in der EU und im EWR (PM des BGH Nr. 23/2020 vom 27.2.2020 [zu VII ZR 151/18]).

66 Halbe DÄBl.2020, A-620, 621.

67 Medicus/ Lorenz, § 16 Rn. 13 ff., 28 ff.; Hk-BGB/ Staudinger, § 823 Rn. 157 ff., 189 ff.

68 Wussow/ Hemmerich - Dornick, Zweiter Teil, Kapitel 3 Rn. 5; Jacob y/ von Hinden, § 823 Rn. 22.

69 Weimer MPR Ausgabe 5/2007, 119, 120; Mitterhuber ZJS 2019, 264, 265.

70 Hebere r, in: Heberer, S. 398.

71 EuGH Rs. C329/16 vom 7.12.2017; Gärtner DÄBl. 2018, A-2303.

Ende der Leseprobe aus 31 Seiten

Details

Titel
KI-Nutzung in der Medizin unter dem Gesichtspunkt der Arzthaftung
Untertitel
Plädoyer für die Einführung eines gesetzlichen Schuldverhältnisses aus Gefährdung
Autor
Jahr
2021
Seiten
31
Katalognummer
V998511
ISBN (eBook)
9783346381392
ISBN (Buch)
9783346381408
Sprache
Deutsch
Schlagworte
KI in der behandelnden Medizin, Verschuldenshaftung versus Gefährdungshaftu
Arbeit zitieren
Wolfgang Neuefeind (Autor:in), 2021, KI-Nutzung in der Medizin unter dem Gesichtspunkt der Arzthaftung, München, GRIN Verlag, https://www.grin.com/document/998511

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: KI-Nutzung in der Medizin unter dem Gesichtspunkt der Arzthaftung



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden