Grin logo
de en es fr
Shop
GRIN Website
Texte veröffentlichen, Rundum-Service genießen
Zur Shop-Startseite › BWL - Recht

Die Haftung beim Einsatz künstlicher Intelligenz in der Medizintechnik am Beispiel von Radiomics

Titel: Die Haftung beim Einsatz künstlicher Intelligenz in der Medizintechnik am Beispiel von Radiomics

Bachelorarbeit , 2022 , 75 Seiten , Note: 1,0

Autor:in: Patrick Schön (Autor:in)

BWL - Recht
Leseprobe & Details   Blick ins Buch
Zusammenfassung Leseprobe Details

Künstliche Intelligenz (KI) ist die treibende Kraft des technologischen Fortschritts im 21. Jahrhundert. Insbesondere im Gesundheitswesen eröffnet KI völlig neue Möglichkeiten – doch mit den Chancen kommen auch Herausforderungen. Eines der spannendsten Anwendungsfelder ist Radiomics: Eine bahnbrechende Technologie, die Ärzten ermöglicht, präzisere Diagnosen zu stellen und Therapieverläufe mit bisher ungeahnter Genauigkeit vorherzusagen.
Doch wie verändert der Einsatz von KI die medizinische Praxis aus rechtlicher Sicht? Kann das geltende Haftungsrecht mit dieser hochkomplexen Technologie Schritt halten? Und welche Risiken entstehen für Hersteller, Betreiber und behandelnde Ärzte? Diese Arbeit nimmt Sie mit auf eine fesselnde Reise in die rechtlichen Dimensionen der KI.

Durch eine fundierte Analyse beleuchtet die wissenschaftliche Arbeit zentrale Fragen, die weit über den medizinischen Einsatz hinausgehen: Können KIs selbst für Fehlentscheidungen haftbar gemacht werden? Wie lassen sich Datenschutz und medizinische Innovation in Einklang bringen? Und wo stehen wir als Gesellschaft, wenn es um die moralischen und rechtlichen Grundlagen für den Einsatz solcher Technologien geht?

Diese Arbeit ist unverzichtbar für jeden, der verstehen möchte, wie Recht und Technik aufeinandertreffen und welche Hürden überwunden werden müssen, um die Potenziale von KI zu entfesseln – ohne dabei den Schutz der Patienten aus den Augen zu verlieren. Tauchen Sie ein in ein Zukunftsthema, das unser Leben und unsere Rechtssysteme nachhaltig prägen wird!

Leseprobe


Inhaltsverzeichnis

I. Einleitung

II. Gang der Darstellung

III. Hintergründe und aktueller Stand von Künstlicher Intelligenz

A. Technische Hintergründe

1. Definition von Künstlicher Intelligenz

2. Big Data als Basis von Künstlicher Intelligenz

3. Grundsätzliche Unterscheidung in starke und schwache KI

4. Erkennung von Mustern

5. Machine Learning & Deep Learning

6. Expertensysteme

7. Neuronale Netze

B. Zwischenfazit

C. Einsatz und Bedeutung von Künstlicher Intelligenz in der Medizintechnik

1. Definition eines Medizinprodukts

2. Regulatorische und rechtliche Zulassungsvoraussetzungen von Künstlicher Intelligenz als Medizinprodukt

2.1. Verordnung (EU) 2017/745

2.2. Software als Medizinprodukt

3. Einsatzgebiete Künstlicher Intelligenz in der Medizintechnik

3.1. Robotik

3.2. Monitoring

3.3. Diagnostik

D. Radiomics

1. Definition von Radiomics

2. Funktionsweise von Radiomics

3. Medizinische Bedeutung des Konzepts von Radiomics

E. Zwischenfazit

F. Verortung und Bedeutung von Künstlicher Intelligenz in der Europäischen Rechtspolitik

1. Hochrangige Expertengruppe für Künstliche Intelligenz (HEG-KI)

2. Weißbuch zur Künstlichen Intelligenz

IV. Haftungsrecht

A. Die Haftung und das Haftungsrecht

1. Definition des Haftungsbegriffs

2. Das Haftungsrecht

3. Dogmatik des Haftungsrechts

B. Die besonderen Anforderungen an das Haftungsrecht bei der Anwendung Künstlicher Intelligenz im Falle von Radiomics

1. Die KI als Adressat von Haftungsansprüchen

2. Kontinuierliche Anpassung an den technologischen Fortschritt

3. Umgang mit statischer „Blackbox-KI“

4. Zwischenfazit

C. Zivilrechtliche Haftung

1. Haftung des Produzenten de lege lata

1.1. Deliktische Haftung nach § 823 Ⅰ BGB

1.2. Haftung nach dem ProdHaftG

1.3. Ersatz des Schadens

1.4. Zwischenfazit

2. Haftung des gewerblichen Betreibers de lege lata

2.1. Problemstellung

2.2. Haftung aus Vertrag gem. § 280 BGB

2.3. Deliktische Haftung gem. § 276 Ⅰ BGB

2.4. Art und Umfang der Haftung des Betreibers

2.5. Zwischenfazit

3. Haftung aufgrund Verstoß gegen Datenschutzbestimmungen de lege lata

3.1. Problemstellung

3.2. Kollision von Big Data und KI mit Art. 5 Ⅰ DS-GVO

3.3. Lösungsansatz über die Anonymisierung und Pseudonymisierung der Daten gem. ErwG Nr. 26 DS-GVO

3.4. Zwischenfazit

D. Strafrechtliche Haftungstatbestände

1. Problemstellung

2. KI als Täter

3. Strafrechtliche Haftungstatbestände beim Einsatz von KI im Rahmen von Radiomics

5.1. Haftung gem. §§ 92 Ⅰ, 93 MPDG

5.2. Haftung gem. § 42 Ⅱ 1 BDSG

5.3. Haftung gem. § 203 StGB

V. Anpassung der Haftungsnormen de lege ferenda

VI. Fazit

Zielsetzung und Themen

Diese Bachelor-Thesis untersucht das Haftungsrecht beim Einsatz von künstlicher Intelligenz in der Medizintechnik, wobei das Konzept von Radiomics als zentrales Anwendungsbeispiel dient. Die Arbeit analysiert die bestehenden Haftungsrisiken für Hersteller, Betreiber und behandelnde Ärzte unter Berücksichtigung deutscher und europäischer Normen sowie der Datenschutz-Grundverordnung.

  • Grundlagen künstlicher Intelligenz, Deep Learning und Radiomics
  • Regulatorische Anforderungen an Medizinprodukte (MDR)
  • Zivilrechtliche Haftung des Produzenten und gewerblichen Betreibers
  • Haftungsfragen aufgrund von Datenschutzverstößen
  • Strafrechtliche Haftungstatbestände und Ausblick auf zukünftige Anpassungen (de lege ferenda)

Auszug aus dem Buch

3. Umgang mit statischer „Blackbox-KI“

Der autonome Entscheidungsprozess eines Algorithmus stellt per se eine Herausforderung für die Auffassung dar, dass lediglich der Mensch die Fähigkeit erlangen kann Träger von Rechten und Pflichten zu sein und gleich wohl auch für sein Handeln einzustehen hat. Betrachtet man die im Falle von Radiomics zum Einsatz kommenden CNN wird man feststellen müssen, dass sowohl die Entscheidungen der KI selbst als auch die autonome Weiterentwicklung des Algorithmus sehr schnell an einen Punkt kommt, an welchem der Mensch nicht mehr in der Lage ist diese Lern- und Denkschritte vollumfänglich nachvollziehen oder verstehen zu können. Man spricht in solch einem Fall von ‚Blackbox-KI‘, da die Neuronen des Systems die Rechenoperationen in Teilen im verborgenen vollziehen. An diesem Punkt kollidieren je nach möglichem Tatbestand das Verschulden, das Vertretenmüssen oder auch die Zurechenbarkeit mit der Funktionsweise der KI. Es stellt sich damit die ethische Frage ob der Mensch überhaupt noch für das Handeln der KI einzustehen hat. Eine Antwort hierauf kann mitunter die Tierhalterhaftung gem. § 833 1 BGB liefern, wenngleich die Rechtsnorm nicht analog auf eine KI angewandt werden kann. Auch wenn ein Tier selbst unzweifelhaft nicht die Eigenschaft des Menschseins inne hat, so ist es dennoch ein Lebewesen was einem eigenen Willen sowie einem naturgegebenen Instinkt folgt. Trotz einer noch so umfassenden Dressur und vermeintlichen Kontrolle eines Tieres durch den Menschen verbleibt das Risiko einer unvorhersehbaren Handlung des Tieres. Dennoch hat der Mensch als Halter des Tieres für einen durch das Tier verursachten Schaden einzustehen. Es handelt sich hierbei somit alleine um eine Gefährdungshaftung.

Zusammenfassung der enthaltenen Kapitel

I. Einleitung: Einführung in die Thematik der künstlichen Intelligenz als technologischer Megatrend und Skizzierung des moralischen sowie rechtlichen Dilemmas in der Haftung.

II. Gang der Darstellung: Erläuterung des methodischen Vorgehens und der Struktur der Arbeit zur Untersuchung der haftungsrechtlichen Herausforderungen.

III. Hintergründe und aktueller Stand von Künstlicher Intelligenz: Detaillierte technische Analyse von KI-Systemen, Big Data, neuronale Netze und deren Bedeutung in der Medizintechnik sowie das Konzept von Radiomics.

IV. Haftungsrecht: Umfassende rechtliche Analyse der zivil- und strafrechtlichen Haftungssituation für Produzenten und Betreiber beim Einsatz klinischer KI-Anwendungen.

V. Anpassung der Haftungsnormen de lege ferenda: Diskussion über zukünftige rechtliche Entwicklungen und die Notwendigkeit einer ausgewogenen Anpassung der Haftungsgrundsätze.

VI. Fazit: Zusammenfassende Bewertung der Haftungsrisiken und der Vereinbarkeit von KI-Technologien mit der geltenden Rechtsordnung.

Schlüsselwörter

Künstliche Intelligenz, Radiomics, Haftungsrecht, Medizintechnik, Produkthaftungsgesetz, BGB, Datenschutz, DS-GVO, Beweislast, Diagnostik, Produzentenhaftung, Betreiberhaftung, Gefährdungshaftung, Verschuldenshaftung, Algorithmus.

Häufig gestellte Fragen

Worum geht es in dieser Abschlussarbeit grundlegend?

Die Arbeit analysiert die haftungsrechtlichen Herausforderungen, die entstehen, wenn künstliche Intelligenz in der medizinischen Diagnostik – speziell am Beispiel von Radiomics – eingesetzt wird.

Was sind die zentralen Themenfelder der Arbeit?

Die Schwerpunkte liegen auf den technischen Grundlagen von KI, der regulatorischen Einordnung von Software als Medizinprodukt, der zivilrechtlichen Haftung, dem Datenschutz sowie den strafrechtlichen Konsequenzen.

Welches primäre Ziel verfolgt die Forschungsarbeit?

Ziel ist es zu klären, ob die bestehenden deutschen Haftungsnormen auf KI-Systeme anwendbar sind und wer bei Schäden durch KI rechtlich zur Verantwortung gezogen werden kann.

Welche wissenschaftliche Methode kommt zum Einsatz?

Die Arbeit nutzt überwiegend hermeneutische Methoden zur Analyse der Dogmatik bestehender Haftungsnormen und betrachtet die Rechtslage de lege lata (nach geltendem Recht) sowie de lege ferenda (zukünftiges Recht).

Was wird im Hauptteil der Arbeit behandelt?

Der Hauptteil gliedert sich in eine technische Analyse von KI-Systemen und eine detaillierte Auseinandersetzung mit den Haftungsketten für Hersteller und gewerbliche Betreiber in einem klinischen Kontext.

Welche Schlüsselwörter charakterisieren diese Arbeit?

Zu den prägenden Begriffen zählen neben künstlicher Intelligenz und Radiomics vor allem das Produkthaftungsgesetz, die DS-GVO, die Deliktshaftung sowie die Beweislast bei autonom agierenden Systemen.

Kann eine KI nach Ansicht des Autors als Täter angesehen werden?

Nein, der Autor stellt fest, dass das deutsche Straf- und Zivilrecht primär auf den Menschen als Rechtssubjekt ausgerichtet ist; daher fungiert die KI nur als technisches Mittel, während ein Mensch haftbar gemacht werden muss.

Wie bewertet der Autor die „Blackbox“-Problematik der KI?

Die fehlende Transparenz autonomer Lernprozesse führt zu Beweisproblemen bei der Kausalität, was der Autor als zentrale Herausforderung für die geltende Rechtskultur identifiziert.

Ende der Leseprobe aus 75 Seiten  - nach oben

Details

Titel
Die Haftung beim Einsatz künstlicher Intelligenz in der Medizintechnik am Beispiel von Radiomics
Hochschule
FOM Hochschule für Oekonomie & Management gemeinnützige GmbH, München früher Fachhochschule
Note
1,0
Autor
Patrick Schön (Autor:in)
Erscheinungsjahr
2022
Seiten
75
Katalognummer
V1552195
ISBN (eBook)
9783389104415
ISBN (Buch)
9783389104422
Sprache
Deutsch
Schlagworte
Recht Wirtschaftsrecht Haftung KI AI Künstliche Intelligenz Medizin Radiomics Medizintechnik Software Produzent Hersteller Schaden Haftung KI Liability AI Liability Medizinprodukt Deep Learning Machine Learning Radiologie Genomik Neuronales Netz BGB DSGVO Big Data
Produktsicherheit
GRIN Publishing GmbH
Arbeit zitieren
Patrick Schön (Autor:in), 2022, Die Haftung beim Einsatz künstlicher Intelligenz in der Medizintechnik am Beispiel von Radiomics, München, GRIN Verlag, https://www.grin.com/document/1552195
Blick ins Buch
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
Leseprobe aus  75  Seiten
Grin logo
  • Grin.com
  • Versand
  • Kontakt
  • Datenschutz
  • AGB
  • Impressum