Wie jeder Industriesektor ist die Gesundheitswirtschaft vom rasanten, digitalen Wandel betroffen. Vor allem das Gebiet der künstlichen Intelligenz entwickelt sich stetig weiter. Dazu zählt unter anderem das maschinelle Lernen oder Machine Learning. Hierbei lernen Maschinen aus Erfahrung, um präzisere Ergebnisse zu liefern und dadurch eine bessere Therapieauswahl zu ermöglichen.
Was sind die technischen und organisatorischen Voraussetzungen für Machine Learning? Welche rechtlichen Bedenken gibt es? Und wie weit sind die Voraussetzungen für Machine Learning in Deutschland geschaffen?
Der Autor Tobias Wischemann erläutert den aktuellen Forschungsstand bezüglich Machine Learning und vergleicht die Rahmenbedingungen in Deutschland mit denen in den USA. Des Weiteren gibt Wischemann Handlungsempfehlungen, mit denen der technische, organisatorische und rechtliche Rahmen für Machine Learning in Deutschland geschaffen werden kann.
Aus dem Inhalt:
- personalisierte Medizin;
- Systemmedizin;
- Big Data;
- KI;
- Datenschutz
Inhaltsverzeichnis
1 Hintergrund und Zielsetzung
2 Theoretischer Hintergrund
2.1 Personalisierte Medizin und Systemmedizin
2.1.1 Definition und Terminologie
2.1.2 Technischer Kontext
2.2 Technische Aspekte: Machine Learning und Big Data
2.2.1 Machine Learning: Hintergründe, Algorithmen und Funktionsweisen
2.2.2 Big Data und Machine Learning in der Medizin
2.2.3 Machine Learning in der Onkologie
2.3 Organisatorische Aspekte: Gesundheit im Zeitalter von Big Data
2.3.1 Unterschiede im Aufbau der Gesundheitssysteme
2.3.2 Elektronische Speicherung von Gesundheitsdaten
2.3.3 KI-Strategien und medizintechnische Initiativen
2.4 Rechtliche Aspekte
2.4.1 Datenschutz
2.4.2 Krankenversicherungsrecht
2.4.3 Medizinprodukterecht und sonstige Aspekte
2.5 Zusammenfassung
3 Methodisches Vorgehen
4 Ergebnisse
4.1 Ergebnisse: Technische Aspekte
4.1.1 RCTs vs. klinische Daten
4.1.2 Elektronische Patientenakten (ePA / EHR)
4.1.3 Technische Standards und technische Infrastruktur
4.1.4 Verteilte Systeme
4.2 Ergebnisse: Organisatorische Aspekte
4.2.1 Digitale Infrastruktur der Gesundheitssysteme
4.2.2 Strategische Initiativen
4.2.3 Open Access
4.3 Ergebnisse: Rechtliche Aspekte
4.3.1 Dateneigentum (Inhaberschaft)
4.3.2 Data Sharing genetischer Daten
4.3.3 Konzeptionelle Probleme beim Datenschutz
4.3.4 Fragmentierung der regulatorischen Landschaft
4.3.5 Krankenversicherungsrecht
4.3.6 Biomarkerabhängige Medikamentenzulassungen
4.3.7 Kriterien für die Zulassung von Software
4.3.8 Datenschutzrechtliche Bestimmungen
4.3.9 DTC-Anbieter (Direct-To-Consumer Companies)
5 Diskussion
5.1 Vergleichende Betrachtung
5.1.1 Digitale Erfassung und Interoperabilität von Gesundheitsdaten
5.1.2 Generierung großer Datenmengen
5.1.3 Rechtliche Hürden
5.1.4 Rechtliche Ungewissheit
5.1.5 Die Rolle des privaten Sektors
5.2 Handlungsempfehlungen an das deutsche Gesundheitswesen
5.2.1 Handlungsempfehlung Nr. 1:
5.2.2 Handlungsempfehlung Nr. 2:
5.2.3 Handlungsempfehlung Nr. 3:
5.2.4 Handlungsempfehlung Nr. 4:
6 Fazit und Ausblick
Zielsetzung & Themen
Die vorliegende Arbeit untersucht die Voraussetzungen für den Einsatz von Machine Learning (ML) zur Verbesserung von Diagnose- und Therapieentscheidungen in der Onkologie im Hinblick auf technische, organisatorische und rechtliche Aspekte, mit einem direkten Vergleich zwischen den Gesundheitssystemen Deutschlands und der USA.
- Anwendung von Machine Learning in der Onkologie
- Vergleich der Gesundheitssysteme von Deutschland und den USA
- Technische, organisatorische und rechtliche Voraussetzungen
- Erhebung, Speicherung und Nutzung von Gesundheitsdaten
- Potenzial der personalisierten Medizin und Systemmedizin
Auszug aus dem Buch
2.2.1 Machine Learning: Hintergründe, Algorithmen und Funktionsweisen
Für einen kurzen Überblick wird an dieser Stelle das Lehrbuch ‚Künstliche Intelligenz. Ein moderner Ansatz‘ von Russell und Norvig herangezogen, welches sich weltweit als eines der Standardwerke für das Studium der Künstlichen Intelligenz (KI) etabliert hat. Hinsichtlich des maschinellen Lernens (ML) liefern Russell und Norvig darin eine Definition, nach der ein Algorithmus „lernt, wenn er seine Leistung für zukünftige Aufgaben verbessert, nachdem er Beobachtungen über die Welt gemacht hat.“ (Russell; Norvig, 2012, S. 809).
Für eine technische Umsetzung existieren unterschiedliche Modelle: Grundsätzlich unterscheidet man, ob die Ausgabe, d.h. die Antwort auf die zugrunde liegende Frage, Teil einer endlichen Wertemenge ist oder ob es sich um eine Zahl handelt. Bei endlichen Wertemengen spricht man von Klassifizierung, bei Zahlen von Regression (vgl. Russell; Norvig, 2012, S. 812). Einer der am häufigsten verwendeten Klassifikatoren bzw. Regressoren ist die Support Vector Machine, in der Trainingsobjekte jeweils durch einen Vektor in einem Vektorraum repräsentiert werden (vgl. Russell; Norvig, 2012, S. 863 ff.). Daneben spielen künstliche neuronale Netze eine wichtige Rolle (vgl. Russell; Norvig, 2012, S. 845 ff.). Ihre Funktionsweise kann als Feedback-Schleife beschrieben werden, in der einer bestimmten Anzahl an Parametern Gewichte zugewiesen werden, die im Trainingsprozess durch Vergleichen der Ergebnisse mit den Soll-Werten schrittweise angepasst werden (vgl. Russell; Norvig, 2012, S. 846 ff.). Da die Schichten zwischen der Ein- und Ausgabeschicht lediglich mit den jeweils angrenzenden Schichten interagieren, spricht man aus Sicht des Anwenders von versteckten Schichten. Zwar kann der Anwender auch versteckte Schichten einsehen, jedoch bei mehrschichtigen Modellen mit einer hohen Zahl an Parametern häufig nicht erkennen, wie stark bestimmte Parameter die Ausgabe beeinflussen. Aufgrund des Mangels an Transparenz, der sich dadurch ergibt, werden vielschichtige neuronale Netze oft als Black Box beschrieben (vgl. Miotto et al., 2017, S. 7). Die Wahl des Modells hängt vom Hypothesenraum und seiner Dimensionalität ab, d. h. davon, welche Hypothesen für die Problemstellung relevant sind und wie viele Attribute einzubeziehen sind. Laut Forschung ist es überdies möglich, dass Ensembles von Modellen eine bessere Leistung erzielen als ein einzelnes Modell (vgl. Russell; Norvig, 2012, S. 809 ff.).
Zusammenfassung der Kapitel
1 Hintergrund und Zielsetzung: Einführung in die Problematik der personalisierten Medizin und die Forschungsfrage zur Anwendung von Machine Learning in der Onkologie.
2 Theoretischer Hintergrund: Darstellung des aktuellen Stands der Technik und der medizinischen Herausforderungen, sowie Erläuterung der technischen, organisatorischen und rechtlichen Rahmenbedingungen.
3 Methodisches Vorgehen: Beschreibung der selektiven Literaturrecherche und der Kriterien zur Auswahl der untersuchten Publikationen.
4 Ergebnisse: Auswertung der technischen, organisatorischen und rechtlichen Aspekte anhand der analysierten Literatur mit Fokus auf den Vergleich zwischen Deutschland und den USA.
5 Diskussion: Synthese der Ergebnisse in fünf Themenblöcken und Ableitung von Handlungsempfehlungen für das deutsche Gesundheitswesen.
6 Fazit und Ausblick: Zusammenfassende Bewertung der Potenziale und Hindernisse für den Einsatz von Machine Learning in der Medizin.
Schlüsselwörter
Machine Learning, Onkologie, Personalisierte Medizin, Gesundheitsdaten, Datenaustausch, Interoperabilität, Künstliche Intelligenz, Datenschutz, DSGVO, HIPAA, elektronische Patientenakte, Systemmedizin, Big Data, Rechtliche Rahmenbedingungen, Medizininformatik
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit untersucht die Voraussetzungen, unter denen Machine Learning in der Onkologie zur Verbesserung von Diagnose- und Therapieentscheidungen eingesetzt werden kann.
Was sind die zentralen Themenfelder?
Die Themen umfassen technische Möglichkeiten und Herausforderungen, organisatorische Rahmenbedingungen des Gesundheitssystems und rechtliche Anforderungen an den Datenschutz und die Datennutzung.
Was ist das primäre Ziel der Arbeit?
Das Ziel ist ein systematischer Vergleich der Voraussetzungen für ML-Anwendungen in der Onkologie zwischen Deutschland und den USA.
Welche wissenschaftliche Methode wurde verwendet?
Es wurde eine selektive Literaturrecherche durchgeführt, um Publikationen zur Situation in Deutschland und den USA zu identifizieren und diese nach spezifischen Kriterien auszuwerten.
Was wird im Hauptteil behandelt?
Im Hauptteil werden technische Aspekte (z.B. EHRs, Interoperabilität), organisatorische Strukturen (z.B. Initiativen, Data-Sharing) und rechtliche Hürden (z.B. Datenschutz, Haftungsfragen) detailliert analysiert.
Welche Schlüsselwörter charakterisieren die Arbeit?
Machine Learning, Onkologie, Personalisierte Medizin, Gesundheitsdaten, Datenschutz und Interoperabilität sind die prägenden Begriffe.
Inwiefern unterscheiden sich die Gesundheitssysteme bei der Datennutzung?
Die USA setzen verstärkt auf einen freiwilligen, anreizbasierten Ansatz durch private Akteure, während Deutschland durch staatlich initiierte, aber oft verzögerte Projekte wie die ePA geprägt ist.
Welche Rolle spielt die Medizininformatik-Initiative in Deutschland?
Sie wird als zentraler Akteur gesehen, um Datenintegrationszentren zu etablieren und damit die Voraussetzungen für eine strukturierte Datennutzung zu schaffen.
- Citar trabajo
- Tobias Wischemann (Autor), 2020, Wie Machine Learning die Diagnose- und Therapieentscheidungen verbessert. Technische, organisatorische und rechtliche Voraussetzungen in der modernen Medizin, Múnich, GRIN Verlag, https://www.grin.com/document/502507