Wie Machine Learning die Diagnose- und Therapieentscheidungen verbessert. Technische, organisatorische und rechtliche Voraussetzungen in der modernen Medizin


Fachbuch, 2020
93 Seiten

Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1 Hintergrund und Zielsetzung

2 Theoretischer Hintergrund
2.1 Personalisierte Medizin und Systemmedizin
2.2 Technische Aspekte: Machine Learning und Big Data
2.3 Organisatorische Aspekte: Gesundheit im Zeitalter von Big Data
2.4 Rechtliche Aspekte
2.5 Zusammenfassung

3 Methodisches Vorgehen

4 Ergebnisse
4.1 Ergebnisse: Technische Aspekte
4.2 Ergebnisse: Organisatorische Aspekte
4.3 Ergebnisse: Rechtliche Aspekte

5 Diskussion
5.1 Vergleichende Betrachtung
5.2 Handlungsempfehlungen an das deutsche Gesundheitswesen

6 Fazit und Ausblick

Literaturverzeichnis

Anhang

Einführung in Machine Learning

Bibliografische Information der Deutschen Nationalbibliothek:

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Impressum:

Copyright © Studylab 2020

Ein Imprint der GRIN Publishing GmbH, München

Druck und Bindung: Books on Demand GmbH, Norderstedt, Germany

Coverbild: GRIN Publishing GmbH | Freepik.com | Flaticon.com | ei8htz

Abbildungsverzeichnis

Abb. 2.1.1 Systemmedizin

Abb. 2.2.1 Therapiegebiete und Algorithmen in der KI-Literatur

Abb. 2.3.1 Gesundheitssysteme

Abb. 2.3.2 Medizininformatik-Initiative: Struktur und Akteure

Abb. 4.1.1 Klinische Studien vs. Real World Evidence

Tabellenverzeichnis

Tab. 4.1 Einschlüsse / Ausschlüsse

Tab. 4.2 Einschlüsse sortiert nach Themengebieten

Tab. 4.3 Genetische Forschung mit klinischen Daten in den USA

Tab. 5.1 Themenblöcke

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Hintergrund und Zielsetzung

In einem Vortrag an der Harvard Medical School im Jahr 2017 berichtete die Bioinformatikerin Shirley Pepke, die an einem Ovarialkarzinom erkrankt war, von der folgenden Erfahrung: Nach einer fehlgeschlagenen Chemotherapie konnte sie mittels einer DNA-Sequenzierung ihren Tumor mit 400 anderen Ovarialkarzinomen vergleichen. Mustererkennung lieferte dabei laut Pepke Hinweise auf Heilungschancen durch einen Checkpoint-Inhibitor, der für die Behandlung von Ovarialkarzinomen nicht zugelassen war. Die Wahl der anschließend erfolgreichen Behandlung führt sie dementsprechend auf den Einsatz von maschinellem Lernen (oder: Machine Learning = ML) zurück (vgl. Harvard Medical School, 2017).

Der hier geschilderte Fall soll exemplarisch die Grundidee eines Forschungsgebiets veranschaulichen, das in der Fachwelt seit den 1990er Jahren unter dem Begriff der personalisierten Medizin (bzw. individualisierten / stratifizierten Medizin oder Präzisionsmedizin) Erwähnung findet und welches unter anderem das Potenzial von ML zur Auswertung genetischer Daten erkundet (vgl. Pfundner, 2019, S. 144). In Deutschland erforscht z. B. das Centrum für Integrierte Onkologie in Köln (CIO), wie große Mengen an Patientendaten genutzt werden können, um durch ein wachsendes Verständnis biologischer Zusammenhänge in Zukunft eine bessere Therapieauswahl zu ermöglichen (vgl. Universitätsklinikum Köln, 2019 u. Kölner Stadt-Anzeiger, 2018). Die PerMediCon-Fachmesse bietet dabei eine Plattform für die Zusammenarbeit mit verschiedenen Branchen und Disziplinen (vgl. CIO Köln Bonn, 2018 u. Koelnmesse GmbH, o. J.). Die EXACT-Studie des Comprehensive Cancer Centers in Wien konnte zeigen, dass personalisierte Medizin in der Onkologie das Überleben von Patienten signifikant verlängern kann (vgl. CCC, 2017). Pfundner sagt der personalisierten Medizin Systemrelevanz voraus, wobei er die Digitalisierung als den Katalysator einordnet, der im Vergleich zu früheren Zeiten den entscheidenden Vorteil für den Fortschritt auf dem Gebiet darstellt. Er sieht dabei als wesentliches Ziel den Einsatz von ML zur Verbesserung von Diagnose- und Therapieentscheidungen, worin der Onkologie eine Vorreiterrolle zuteilwird (vgl. Pfundner, 2019, S. 144 ff.). Auch der ehemalige US-Präsident Barack Obama bescheinigte der personalisierten Medizin beim Start seiner Precision Medicine Initiative im Jahr 2015 Chancen auf medizinische Fortschritte beispiellosen Ausmaßes (vgl. The White House, 2015).

Bogdan gibt zu bedenken, dass der Erfolg der personalisierten Medizin schwer einzuschätzen ist, da Tumore Resistenzen gegen Medikamente und Behandlungen entwickeln können (vgl. Bogdan, 2018, S. 269). Dennoch geht auch er von ihrer Machbarkeit aus. Als längerfristiges Ziel nennt er dabei die Entwicklung patientenindividueller Therapieansätze (vgl. Bogdan, 2018, S. 233). So könnte irgendwann das CRISPR/Cas9-Verfahren ein wichtiges Werkzeug darstellen, mit dem sich präzise Änderungen an DNA-Bausteinen des Erbguts vornehmen lassen (vgl. Bogdan, 2018, S. 251). Aus technischen sowie ökonomischen Gründen konzentrieren sich derzeitige Bemühungen allerdings vergleichbar mit dem eingangs genannten Fall von Shirley Pepke auf die Auswahl der für einen Patienten am besten geeigneten Therapie unter allen bestehenden Ansätzen (vgl. Bogdan, 2018, S. 233). Dem medizinischen Potenzial der personalisierten Medizin unter Verwendung von ML und Big Data stehen dabei Bedenken bzgl. der Sicherheit sowie des Daten- und Verbraucherschutzes gegenüber (vgl. Kulynych; Greely, 2017).

Vor diesem Hintergrund untersucht die vorliegende Arbeit die Voraussetzungen für den Einsatz von ML zur Verbesserung von Diagnose- und Therapieentscheidungen in der Onkologie im Hinblick auf technische, organisatorische und rechtliche Aspekte. Im theoretischen Teil werden die Hürden aufgezeigt, die in Anbetracht der Chancen und Risiken einer Datenökonomie bestehen, auf deren Basis eine technische Umsetzung möglich ist: Kernfragen beziehen sich auf die Erhebung, Speicherung und Nutzung relevanter Daten, die als Lernmaterial für die ML-Algorithmen dienen und somit das Fundament für eine erfolgreiche Umsetzung darstellen (vgl. Langanke et al., 2019, S. 184 f.). Die technische Umsetzung ist dabei gebunden an den rechtlichen und organisatorischen Rahmen, bei dessen Gestaltung Staat und Politik eine maßgebliche Rolle einnehmen (vgl. Wernitz; Pelz, 2015, S. 187 ff.). Dabei kommt dem Bereich der Genetik (und in Verbindung damit insbesondere der Onkologie) eine Schlüssel- und Vorreiterrolle zu (vgl. Pfundner, 2019, S. 144 ff. u. Kohake, 2016, S. 19 f.).

Eine PwC-Studie bescheinigt Deutschland hinsichtlich seines Potenzials im Bereich der KI großes Vertrauen durch Staat und Wirtschaft (vgl. PwC, 2018, S. 11). Allerdings äußern Vertreter der industriellen Gesundheitswirtschaft im Hinblick auf innovative Behandlungskonzepte Bedenken bzgl. Deutschlands Fortschritten beim digitalen Wandel (vgl. BDI, 2018/a u. BDI, 2018/b). Als Marktführer gelten derzeit die USA (vgl. Groth et al., 2018, S. 11), die auch auf dem Gebiet der Medizintechnik eine führende Position innehaben (vgl. GTAI, 2017, S. 3). Ziel der vorliegenden Arbeit ist es daher, die Rahmenbedingungen in Deutschland und in den USA hinsichtlich der Erhebung, Speicherung und Nutzung relevanter Daten für eine Anwendung von ML zur Verbesserung von Diagnose- und Therapieentscheidungen in der Onkologie zu vergleichen. Dadurch wird untersucht, inwiefern die Voraussetzungen im jeweiligen Land eine solche Anwendung begünstigen oder behindern. Ein solcher Vergleich ist nicht zuletzt vor dem Gesichtspunkt der voranschreitenden Globalisierung der Medizin relevant, auf die Strametz hinweist. Dabei nennt er konkret das Risiko eines Medizintourismus, der als Folge eines Innovationsvorsprungs in anderen Ländern entstehen kann (vgl. Strametz, 2017, S. 197).

Da sich die personalisierte Medizin wie zuvor angemerkt noch in einem frühen Entwicklungsstadium befindet, verweist die einschlägige Fachliteratur häufig auf die Notwendigkeit weiterführender Forschung. Eine direkte Gegenüberstellung der im methodischen Teil der Arbeit (siehe Abschnitt 3) genannten Parameter erweist sich daher in vielen Aspekten als schwierig. Neben dem Aufzeigen des Forschungsbedarfs in verschiedenen Bereichen umfasst der Beitrag der vorliegenden Arbeit jedoch auch die Ableitung konkreter Erkenntnisse, auf denen die Handlungsempfehlungen in Abschnitt 5.2 basieren.

Als theoretisches Fundament zeigt die Arbeit den aktuellen Wissensstand auf, mit dem eine Verbesserung von Diagnose- und Therapieentscheidungen in der Onkologie durch Einsatz von ML möglich ist. Darauf basierend werden die wesentlichen technischen, organisatorischen und rechtlichen Kriterien abgeleitet, die hinsichtlich der folgenden Punkte für eine entsprechende Umsetzung entscheidend sind: Die verlässliche Erhebung relevanter Daten in ausreichender Menge und ihre Speicherung in strukturierter, interoperabler Form sowie ihre zweckmäßige Nutzung durch berechtigte Leistungserbringer aus der privaten Wirtschaft oder der öffentlichen Hand. Vor diesem Hintergrund lautet die Fragestellung:

Inwiefern erfüllen jeweils das deutsche und das US-amerikanische Gesundheitssystem die technischen, organisatorischen und rechtlichen Voraussetzungen hinsichtlich der Anwendung von Machine Learning (ML) zur Verbesserung von Diagnose- und Therapieentscheidungen in der Onkologie?

2 Theoretischer Hintergrund

2.1 Personalisierte Medizin und Systemmedizin

2.1.1 Definition und Terminologie

Laut Strametz definiert sich die personalisierte Medizin als der „Ansatz, mit Hilfe molekulargenetischer Methoden Therapien, insbesondere im Bereich der Arzneimittelanwendung, unter Berücksichtigung genetischer Strukturen auf den Patienten abzustimmen“ (Strametz, 2017, S. 130). Kohake vertritt in ihrer Arbeit ‚Personalisierte Medizin und Recht‘ hingegen die Ansicht, dass eine allgemeingültige Definition der personalisierten Medizin nicht möglich ist. Dabei räumt sie jedoch ein, dass hinsichtlich unterschiedlicher Definitionsversuche zumindest auf eine inhaltliche Schnittmenge verwiesen werden kann, die insbesondere dem Einfluss genetischer Faktoren eine Schlüsselrolle zuweist, wenngleich sich der Bereich der personalisierten Medizin damit nicht zwingend auf die Pharmakogenetik beschränken muss (vgl. Kohake, 2016, S. 19 f.). Auch Hüsing et al. sehen das Potenzial der personalisierten Medizin insbesondere in der Erforschung genetischer Faktoren und der damit verbundenen Chance auf eine wesentliche Verbesserung der Vorhersage hinsichtlich der Entstehung, dem Verlauf und der Behandlung von Krankheiten (vgl. Hüsing et al. zitiert nach Kohake, 2015, S. 20 f.). Die vorliegende Arbeit orientiert sich dementsprechend an der oben genannten Definition von Strametz. In Anlehnung an Kohake ist außerdem anzumerken, dass neben der Bedeutung des Begriffs der personalisierten Medizin auch die Terminologie umstritten ist: Während mit dem Fokus auf genetische Strukturen zwar individuelle Eigenschaften des Patienten berücksichtigt werden, bleiben persönliche Merkmale wie z. B. Werte und Einstellungen des Patienten unberücksichtigt. Konsequenterweise kann die Bezeichnung ‚ personalisierte Medizin‘ als irreführend angesehen werden. Dem Vorschlag, stattdessen von individualisierter Medizin zu sprechen, kann jedoch entgegengehalten werden, dass Patienten tatsächlich nicht individuell betrachtet, sondern ihrer genetischen Struktur nach in Subgruppen eingeteilt werden. Aus diesem Grund findet sich in der einschlägigen Literatur häufig auch der Begriff der stratifizierten Medizin (vgl. Kohake, 2016, S. 21 f.). In der vorliegenden Arbeit wird in der Regel der Begriff der personalisierten Medizin bevorzugt, da es sich hierbei um den gängigsten Begriff handelt, den auch Kohake aufgrund seiner Etablierung beibehält (vgl. Kohake, 2016, S. 23). Die Begriffe personalisierte Medizin, individualisierte Medizin, stratifizierte Medizin sowie Präzisionsmedizin sollen im Rahmen dieser Arbeit als Synonyme verstanden werden.

2.1.2 Technischer Kontext

Wie jeder Industriesektor ist die Gesundheitswirtschaft vom rasanten digitalen Wandel betroffen, was auch Entwicklungen auf dem Gebiet der künstlichen Intelligenz (KI) einschließt. Dazu zählt unter anderem das maschinelle Lernen oder Machine Learning (ML) als eine Schlüsseltechnologie, die auf die Wissensaneignung durch Mustererkennung in Datenbeständen abzielt und es Maschinen ermöglicht, bei der Erstellung von Analysen aus Erfahrung zu lernen und mit der Zeit immer präzisere Ergebnisse zu liefern (vgl. Russell; Norvig, 2012, S. 23 u. S. 809 ff.). Wie Pfundner verdeutlicht, profitiert die personalisierte Medizin diesbezüglich von der Möglichkeit, große Mengen an Daten aus einer Vielzahl von Quellen zusammenzutragen (vgl. Pfundner, 2019, S. 144). Bei klar definierten Aufgabenstellungen bietet die Datenanalyse mittels ML im Vergleich zur Analyse durch einen Menschen Vorteile, da sich durch ML deutlich größere Mengen (auch an hochdimensionalen) Daten verarbeiten lassen (vgl. Rüping; Sander, 2019, S. 20). Zusammenfassend beschreibt Pfundner das darin enthaltene Potenzial, Krankheiten durch den Einsatz intelligenter Technologien früher zu erkennen, präziser zu diagnostizieren und durch verlässliche Prognosen Ärzte bei ihren Therapieentscheidungen zu unterstützen. Sichtbar ist diese Entwicklung heute vor allem in der Onkologie aufgrund der Möglichkeit der Gensequenzierung zur Erstellung von Tumorprofilen (vgl. Pfundner, 2019, S. 144 ff.). Die Schlüsselrolle der Onkologie spiegelt sich auch in der ambitionierten Zielvorgabe des europäischen Parlaments wider, nach der in der EU bereits in zwanzig Jahren niemand mehr an Krebs sterben soll (vgl. EPP Group, 2018). Eine ML-gestützte personalisierte Medizin könnte diesbezüglich einen zentralen Beitrag leisten.

Ebenso wie Pfundner sieht auch Strametz im technischen Fortschritt der vergangenen Jahre die Grundlage für einen Paradigmenwechsel: Nachdem im Jahr 2007 erstmals die vollständige Sequenzierung des Erbguts eines Menschen gelang, wurden in den darauffolgenden Jahren immer bessere Geräte entwickelt, die den Aufwand und die Kosten für eine solche Sequenzierung um ein Vielfaches verringern. Eines der Anwendungsgebiete individualisierter Medizin befasst sich mit der genetischen Beschaffenheit von Tumoren mit dem Ziel, aus diesen Strukturen eine optimale Therapie abzuleiten (vgl. Strametz, 2017, S. 132 f.). Kohake bemerkt zusätzlich, dass die personalisierte Medizin durch die präzise Feststellung von Erkrankungswahrscheinlichkeiten auch einen positiven Beitrag zur Prävention leisten kann (vgl. Kohake, 2016, S. 23).

Vor diesem Hintergrund ist die personalisierte Medizin ein Produkt verschiedener Forschungsgebiete. Einen wichtigen Beitrag zu deren Bündelung leistet dabei laut Langanke et al. die Systemmedizin (vgl. Langanke et al., 2019, S. 183). Das Bundesministerium für Bildung und Forschung (BMBF) beschreibt die Systemmedizin als die medizinische Verwertung von Erkenntnissen über die komplexen Zusammenhänge in den Lebenswissenschaften zur besseren (bzw. früheren) Erkennung und Behandlung von Krankheiten. Aufgrund der Verbindung von systemorientierten Informationen mit klinischen Patientendaten bescheinigt das BMBF der Systemmedizin eine Schlüsselrolle bei der Etablierung der personalisierten Medizin. Beispielhaft führt das BMBF die Möglichkeit der Sequenzierung genetischer Erbinformationen von Krebsgewebe an, wodurch individuelle Therapien abgeleitet werden können. Bei der ganzheitlichen Erfassung der Wechselwirkungen hilft die computergestützte Analyse großer Datenmengen. Eine zentrale Rolle kommt dabei der Integration und Archivierung der Daten zu. Ziel ist es, biologische Vorgänge mathematisch zu beschreiben, um darauf basierend Modelle und Simulationen zu entwickeln, die Vorhersagen über die Entwicklung von Zellen, Organen oder Organismen erlauben (vgl. BMBF, o. J.).

Langanke et al. interpretieren die Systemmedizin als auf die Verwirklichung bio-medizinischer Visionen ausgerichtet, wobei sich in ihr insbesondere Themen aus dem Bereich E-Health verbinden (vgl. Langanke et al., 2019, S. 183). In Bezug auf die Vorfassung eines Modells des BMBF-geförderten MENON-Projekts mit dem Ziel einer medizintheoretischen, normativen und ökonomischen Evaluation der Systemmedizin stammen die Einflüsse erstens aus Systembiologie, Bioinformatik und Biomathematik, zweitens aus Computational Intelligence, Maschine Learning [sic] und Statistik sowie drittens aus der Medizininformatik (vgl. Langanke et al., 2019, S. 184). Die folgende Abbildung zeigt eine schematische Darstellung dieses typologischen Modells:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2.1.1 Systemmedizin

(in Anlehnung an Langanke et al., 2019, S. 184)

Wie dem Schaubild zu entnehmen ist, überschneiden sich die jeweiligen Areale, in denen Einflüsse aus den oben genannten Fachbereichen zusammengeführt werden. Während die Modellierung auf Basis von biowissenschaftlichen Hypothesen in der Systembiologie zu verorten ist, beinhaltet das medizininformatische Aktivitätsfeld die IT-Tools zur prozessualen Optimierung. ML findet über den Big-Data-Bereich Einzug in die Systemmedizin (vgl. Langanke et al., 2019, S. 184 f.). In Abschnitt 2.2.1 (sowie im Anhang) werden in Bezug auf ML zunächst allgemeine Hintergründe sowie die wichtigsten Methoden bzw. Algorithmen und deren Funktionsweisen genannt und kurz erläutert. Die Abschnitte 2.2.2 und 2.2.3 beziehen sich auf die Anwendungssituation von ML in der Medizin bzw. Onkologie und konkretisieren dabei die in Abb. 2.1.1 dargestellte Verortung innerhalb der Systemmedizin.

2.2 Technische Aspekte: Machine Learning und Big Data

2.2.1 Machine Learning: Hintergründe, Algorithmen und Funktionsweisen

Für einen kurzen Überblick wird an dieser Stelle das Lehrbuch ‚Künstliche Intelligenz. Ein moderner Ansatz‘ von Russell und Norvig herangezogen, welches sich weltweit als eines der Standardwerke für das Studium der Künstlichen Intelligenz (KI) etabliert hat. Hinsichtlich des maschinellen Lernens (ML) liefern Russell und Norvig darin eine Definition, nach der ein Algorithmus „lernt, wenn er seine Leistung für zukünftige Aufgaben verbessert, nachdem er Beobachtungen über die Welt gemacht hat.“ (Russell; Norvig, 2012, S. 809).

Für eine technische Umsetzung existieren unterschiedliche Modelle: Grundsätzlich unterscheidet man, ob die Ausgabe, d.h. die Antwort auf die zugrunde liegende Frage, Teil einer endlichen Wertemenge ist oder ob es sich um eine Zahl handelt. Bei endlichen Wertemengen spricht man von Klassifizierung, bei Zahlen von Regression (vgl. Russell; Norvig, 2012, S. 812). Einer der am häufigsten verwendeten Klassifikatoren bzw. Regressoren ist die Support Vector Machine, in der Trainingsobjekte jeweils durch einen Vektor in einem Vektorraum repräsentiert werden (vgl. Russell; Norvig, 2012, S. 863 ff.). Daneben spielen künstliche neuronale Netze eine wichtige Rolle (vgl. Russell; Norvig, 2012, S. 845 ff.). Ihre Funktionsweise kann als Feedback-Schleife beschrieben werden, in der einer bestimmten Anzahl an Parametern Gewichte zugewiesen werden, die im Trainingsprozess durch Vergleichen der Ergebnisse mit den Soll-Werten schrittweise angepasst werden (vgl. Russell; Norvig, 2012, S. 846 ff.). Da die Schichten zwischen der Ein- und Ausgabeschicht lediglich mit den jeweils angrenzenden Schichten interagieren, spricht man aus Sicht des Anwenders von versteckten Schichten. Zwar kann der Anwender auch versteckte Schichten einsehen, jedoch bei mehrschichtigen Modellen mit einer hohen Zahl an Parametern häufig nicht erkennen, wie stark bestimmte Parameter die Ausgabe beeinflussen. Aufgrund des Mangels an Transparenz, der sich dadurch ergibt, werden vielschichtige neuronale Netze oft als Black Box beschrieben (vgl. Miotto et al., 2017, S. 7). Die Wahl des Modells hängt vom Hypothesenraum und seiner Dimensionalität ab, d. h. davon, welche Hypothesen für die Problemstellung relevant sind und wie viele Attribute einzubeziehen sind. Laut Forschung ist es überdies möglich, dass Ensembles von Modellen eine bessere Leistung erzielen als ein einzelnes Modell (vgl. Russell; Norvig, 2012, S. 809 ff.).

Eine weitere Unterscheidung besteht darin, ob das Lernen überwacht oder nicht überwacht wird, d. h. ob dem Algorithmus im Lernprozess Feedback durch den Anwender bereitgestellt wird oder nicht. Russell und Norvig merken allerdings an, dass eine Unterscheidung zwischen überwachtem und nicht überwachtem Lernen oft schwierig ist und sich in der Praxis häufig eine Mischform durchsetzt, deren Funktion konsequenterweise als halb überwachtes Lernen bezeichnet wird. Dies ist dem Umstand geschuldet, dass für Trainingszwecke nutzbare Daten in realen Anwendungssituationen selten vollständig oder fehlerfrei sind. Oft stehen stattdessen nur wenige Trainingsbeispiele mit verlässlichem Feedback zur Verfügung, während die Mehrheit der Beispiele zufällige oder systematische Störungen aufweist. Das halb überwachte Lernen ist daher auf einen Kompromiss der hier genannten Haupttypen des Lernens ausgerichtet (vgl. Russell; Norvig, 2012, S. 811). Eine detailliertere Darstellung der Grundlagen findet sich im Anhang.

Zentral ist an dieser Stelle auch die Frage, wie sich bei hoher Themenkomplexität unscharfe Daten klassifizieren und semantisch verarbeiten lassen. Dabei stellt die Fuzzy-Logik eine Methode zur Verfügung, die Abstufungen unterschiedlicher Wahrheitswerte ermöglicht (vgl. Russell; Norvig, 2012, S. 645). Potenzial zur Anwendung dieser Methode im Bereich der Biomedizin wurde von Rau et al. aufgezeigt: Die Fuzzy-Logik und die darauf basierende Steuerung (Fuzzy Control oder Fuzzy-Steuerung) nähern sich dem Problem über den Weg des Alltagsdenkens (Common Sense) an und können Objekte und Systeme unscharf beschreiben. Die Methode eignet sich daher für Problemstellungen, für die keine exakten mathematischen Modelle erstellt werden können (vgl. Rau et al., 1995).

Grundsätzlich kann eine Verbesserung der Ergebnisse von ML durch zwei Optionen erreicht werden: 1) durch Anpassung des Algorithmus oder 2) durch Bereitstellung einer größeren Menge an Lerndaten (vgl. Domingos, o. J.). Beide Wege erhöhen die Erfolgswahrscheinlichkeit, wobei nach der Argumentation von Pedro Domingos in der Verwendung größerer Datenmengen häufig der schnellste Weg zu finden ist (vgl. Domingos, o. J.). Wie Döbel et al. verdeutlichen, haben informationstechnische Fortschritte wie die Ausbreitung des Internets und das Aufkommen von Big Data sowie die Ausweitung von Rechen- und Speicherkapazitäten in den vergangenen Jahren die Grundlage für den Erfolg der heutigen KI gelegt. Insbesondere das Lernen von tiefen (d.h. vielschichtigen) neuronalen Netzen wurde so erst um die Jahrtausendwende ermöglicht (vgl. Döbel et al., 2018, S. 10).

2.2.2 Big Data und Machine Learning in der Medizin

Laut der in Abschnitt 1 erwähnten PwC-Studie handelt es sich bei der Gesundheitswirtschaft neben der Automobilindustrie um einen der beiden Sektoren, in denen sich Neuerungen auf dem Gebiet der KI am stärksten auswirken (vgl. PwC, 2018, S. 11). Zusammenfassend nennen Döbel et al. neben dem Potenzial für optimierte Prozesssteuerung neue Möglichkeiten in der natürlichen Sprachverarbeitung, der Bildanalyse und der Diagnostik, die sich durch künstliche Intelligenz ergeben. ML kann dabei als Schlüsseltechnologie für moderne KI-Techniken angesehen werden (vgl. Döbel et al., 2018, S. 6). Ein Teilgebiet der Gesundheitswirtschaft stellt die Systemmedizin dar, innerhalb der (wie Abb. 2.1.1 zeigt) die KI in Form von ML eine zentrale Rolle einnimmt.

ML erstellt aus vorhandenen Daten Modelle zur inhaltlichen Repräsentation dieser Daten oder zur Lösung von vorliegenden Aufgaben (vgl. Russell; Norvig, 2012, S. 809 ff. und Rüping; Sander, 2019, S. 20). Durch die automatische Generierung, Überprüfung und Bewertung einer Vielzahl an Hypothesen wird dem Anwender die Formulierung eigener konkreter Hypothesen erspart (vgl. Wischnewsky et al., 2000, S. 27). Eine mögliche Anwendung kann die klinische Entscheidungsunterstützung sein (vgl. Yang et al., 2017, zitiert nach Rüping; Sander, 2019, S. 25). Im Vorwort seines Herausgeberwerks zu den Perspektiven der Digitalisierung im Gesundheitswesen begründet Haring den Bedarf an solcher Unterstützung auch mit der niedrigen Reliabilität menschlicher Diagnostik (vgl. Haring, 2018, S. VI). In diesem Zusammenhang verweist er auf die weltweit erste Zulassung eines künstlichen Algorithmus zur Diagnose diabetischer Augenerkrankungen durch die US-amerikanische Zulassungsbehörde FDA (vgl. ebd.).

Cruz et al. kommen in einer zusammenfassenden Darstellung bereits im Jahr 2006 zu dem Schluss, dass ML die Genauigkeit von Prognosen erhöht, speziell im Vergleich mit konventionellen statistischen Methoden oder Expertensystemen. Die Autoren beziehen sich auf die Bandbreite der technischen Möglichkeiten (Neuronale Netze, Entscheidungsbäume, Support Vector Machines, Clustering sowie die oben angesprochene Fuzzy-Logik) und verweisen auf den Umstand, dass einzelne Algorithmen in verschiedenen Anwendungsgebieten und in Abhängigkeit der vorhandenen Datencharakteristik eine unterschiedliche Performance aufweisen können (vgl. Cruz et al., 2006). Wann eine gegebene Datenmenge für die Lösung einer Problemstellung ausreichend ist, variiert je nach Komplexität der Aufgabe (vgl. Domingos, o. J.). Dies ist von Bedeutung, da nach Rüping und Sander die Komplexität des Feldes eine der wesentlichen Herausforderungen für den Einsatz von ML in der Medizin darstellt (vgl. Rüping; Sander, 2019, S. 18).

Jiang et al. fassen in einer Studie zusammen, auf welche Algorithmen und Anwendungsgebiete die medizinische Fachliteratur verweist (siehe Abb. 2.2.1) und untermauern damit den Anspruch der Onkologie auf eine Führungsrolle beim Einsatz von ML (vgl. Jiang et al., 2017, S. 233 u. S. 235). Neben einer Vielzahl seltener verwendeter Algorithmen finden in der Auswertung genetischer Daten vor allem Support Vector Machines und neuronale Netze Anwendung.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2.2.1 Therapiegebiete und Algorithmen in der KI-Literatur

(in Anlehnung an Jiang et al., 2017, S. 233 u. S. 235)

Allerdings bestehen weiterhin Hürden bei der klinischen Anwendung von ML: Unter Bezug auf die Situation in den USA benennen Jiang et al. zwei wesentliche Hürden: erstens den Mangel an Standards zur Bewertung der Sicherheit und Wirksamkeit von KI-Systemen und zweitens den Datenaustausch, da es derzeit an Anreizen für den Austausch klinischer Daten zwischen verschiedenen Leistungserbringern mangelt (vgl. Jiang et al., 2017, S. 241). In Bezug auf ML schränken laut Miotto et al. unzureichende Vergleichbarkeit und Probleme mit der Temporalität von Daten die Interpretierbarkeit von Ergebnissen ein. Dabei werden sowohl die hohe Themenkomplexität in der Medizin als auch mangelnde Datenqualität aufgrund fehlender oder unvollständiger Daten sowie unzureichende Datenmengen als Hindernisse identifiziert. In Bezug auf die Datenmenge gilt laut Miotto et al. die Faustregel, nach der mindestens zehnmal so viele Samples wie Parameter notwendig sind. Dadurch ergibt sich für den medizinischen Anwendungsbereich ein Verfügbarkeitsproblem: Aufgrund der hohen Themenkomplexität ist oft eine sehr hohe Zahl an Parametern und somit eine große Menge an Daten-Samples erforderlich. Die Lösung kann laut Miotto et al. nicht ausschließlich in einer besseren Modellierung zu finden sein. Stattdessen kommen die Autoren zu dem Schluss, dass auch die Einbindung von Experten als zwingend notwendiger Bestandteil für eine erfolgreiche Anwendung anzusehen ist (vgl. Miotto et al., 2017, S. 6 f.).

Hinsichtlich der Komplexität des klinischen Anwendungsgebiets im Kontext von Big Data verweisen Auffray et al. auf die unterschiedlichen Datenformen und -quellen und nennen dabei klinische Studien, elektronische Patientenakten, Patientenregister, multidimensionale genomische (und andere ‚omics‘-) Daten sowie Daten aus der medizinischen Bildgebung (vgl. Auffray et al., 2016, S. 2). Daneben lassen sich z. B. Daten aus Social-Media-Anwendungen oder aus der Nutzung von Wearables integrieren (vgl. Fernández-Luque; Bau, 2015, S. 69 f.). Bzgl. der Erforschung von Krankheitsursachen anhand genomischer Daten, denen wie oben erwähnt im Kontext der personalisierten Medizin eine besondere Bedeutung zukommt, verweisen auch Auffray et al. auf die Notwendigkeit großer Datenbestände: In Querschnittstudien werden zwischen 30.000 und 50.000 (oder manchmal mehr) Fälle benötigt, um Signale vom Rauschen trennen zu können (vgl. Auffray et al., 2016, S. 2).

2.2.3 Machine Learning in der Onkologie

Ein prominentes Beispiel für die Anwendung von ML in der Onkologie ist IBM Watson, ein analytischer Supercomputer, den IBM unter anderem als Instrument für die klinische Entscheidungsunterstützung bewirbt. Grundidee ist, dass Watson eine größere Zahl an klinischen Studien auswerten und als Lernmaterial verwenden kann, als es einem menschlichen Arzt oder Ärzte-Team möglich ist (vgl. IBM, o. J.). Laut Wall Street Journal hatten im August 2018 jedoch bereits über ein Dutzend Partner und Kunden die Zusammenarbeit mit IBM aufgrund von nicht zufriedenstellenden Resultaten eingeschränkt oder aufgekündigt (vgl. Wall Street Journal, 2018). Verweise auf interne Dokumente bei IBM (Stand Juli 2018) legen nahe, dass durch Watson unsichere und falsche Therapieempfehlungen ausgesprochen wurden (vgl. STAT, 2018). Jiang et al. verweisen allerdings auf eine Studie, nach denen Watsons Behandlungsempfehlungen in 99% der Fälle mit den Entscheidungen der Ärzte übereinstimmten (vgl. Jiang et al., 2017, S. 241). Daneben vertritt Isaac Kohane (Bereichsvorstand der Abteilung für Bioinformatik an der Harvard Medical School) die Ansicht, dass Watson nicht an der Unzulänglichkeit seiner Algorithmen scheitert, sondern vielmehr an der Tatsache, dass bisher nur für wenige Krebspatienten eine ausreichende Menge an geeigneten Lerndaten verfügbar ist (vgl. Bloomberg, 2018). Auch weist Binder darauf hin, dass diese Daten häufig in Freitexten statt in strukturierter Form vorliegen, was einen hohen Aufwand bei der Datenintegrierung bedeutet und eine wirtschaftliche Anwendung von Watson erschwert (vgl. Binder, 2018, S. 266).

In Deutschland hat sich das HiGHmed-Konsortium innerhalb der Medizininformatik-Initiative das Ziel gesetzt, anhand von Beispielen von Tumoren des Pankreas, der Leber und der Gallengänge zu demonstrieren, wie durch Nutzung von Daten aus der Genomsequenzierung ähnliche Krebsfälle erkannt und individuelle patientenorientierte Behandlungen ermöglicht werden können (vgl. TMF, o. J. /a). Außerhalb der Onkologie kann als Beispiel einer derartigen Nutzung von genomischen Daten auch ein von Becker vorgestelltes Konzept für innovatives Diabetes-Management herangezogen werden, bei dem Erkenntnisse aus genomischen Daten als Grundlage für ein wissensbasiertes Expertensystem dienen (vgl. Becker, 2017). Rüping und Sander führen Studien zu maschinellen Diagnosen von Hautkrebs (vgl. Esteva et al., 2017) oder Lymphknotenmetastasen (vgl. Karssemeijer et al., 2017) an, die mit der Qualität von ärztlichen Diagnosen vergleichbar sind, wenngleich die Autoren anmerken, dass sich aus den Ergebnissen im Einzelnen nicht zwingenderweise eine klinische Relevanz im Ganzen ableiten lässt (vgl. Rüping; Sander, 2019, S. 17). Im Fall von Brustkrebs wurde von Zarafiropoulous et al. und Shi et al. jeweils eine brauchbare Lösung mit Hilfe von Support Vector Machines aufgezeigt (vgl. Zafiropoulos et al., 2006 und Shi et al., 2011). Rubin und Snyder zeigten eine ML-basierte Prognose von Lungenkrebs anhand von Gewebe-Bilddaten, deren Methode sich auch auf Bilddaten anderer Organe anwenden lässt (vgl. Rubin; Snyder, 2016). Auch die Anwendbarkeit der Fuzzy-Logik (siehe 2.2.1) in der Tumorprognose und -klassifizierung konnte in verschiedenen Studien gezeigt werden (vgl. Keller et al., 1998; Khan et al., 2008; Nilashi et al., 2017).

Dabei sind die verfügbaren Daten ein entscheidender Faktor: Die Krebserkrankung basiert auf genetischer Mutation, d.h. jeder Krebserkrankung liegt ein ihr eigenes Datenmuster genetischer Veränderung zugrunde (vgl. Pfundner, 2019, S. 147 f.). Auch Tanner et al. verorten daher die weitreichendsten Auswirkungen von Fortschritten auf dem Gebiet der genetischen Medizin in der Onkologie (vgl. Tanner et al., 2016, S. 38 f.). Pfundner verweist auf das Potenzial der Paarung von molekularer Diagnostik und der Möglichkeit, den Tumor eines Patienten mit den Profilen tausender anderer Tumore zu vergleichen und so eine individuell passende Therapieoption abzuleiten (vgl. Pfundner, 2019, S.151). Auch die oben erwähnte Medizininformatik-Initiative unterstreicht das Potenzial einer derartigen Datenintegration zur gezielten Nutzung von Erkenntnissen aus dem Bereich der Genetik (vgl. TMF, o. J. /a). Aufgrund der Komplexität und Individualität der genetischen Veränderungen (vgl. Pfundner, 2019, S. 148), die einen Tumor hervorrufen, sind daher (in Anlehnung an die Ausführungen in Abschnitt 2.2.2) auch für den Bereich der Onkologie große Datenmengen zwingend erforderlich (vgl. Auffray et al., 2016, S.2). Döbel et al. verweisen darauf, dass der Zugang zu ausreichenden und geeigneten Datenmengen für die effektive Nutzung in Deutschland eine bisher ungelöste Herausforderung darstellt (vgl. Döbel et al., 2018, S. 7).

2.3 Organisatorische Aspekte: Gesundheit im Zeitalter von Big Data

Das in Abschnitt 2.2 umrissene Zukunftspotenzial der personalisierten Medizin wirft Fragen nach der Erhebung, Speicherung und Nutzung der relevanten Daten auf, die vor dem Hintergrund der gesetzlichen, organisatorischen und technischen Gestaltungsmöglichkeiten die Rahmenbedingungen definieren, unter denen die Anwendung von ML zur Verbesserung von Diagnose- und Therapieentscheidungen in der Onkologie möglich wird. Es gilt zu fragen, inwiefern die Gesundheitssysteme die notwendige Erhebung, Speicherung und Nutzung begünstigen oder behindern. Die folgenden Abschnitte befassen sich mit dem voneinander abweichenden Aufbau der Gesundheitssysteme in Deutschland und den USA, den Infrastrukturen für die elektronische Speicherung von Gesundheitsdaten sowie mit Initiativen zur Umsetzung ML-basierter Entscheidungsunterstützung.

2.3.1 Unterschiede im Aufbau der Gesundheitssysteme

Gesundheitssysteme lassen sich grundsätzlich einem der folgenden drei Modelle zuordnen: dem staatlich orientierten etaistisch-bürokratischen Modell (Beveridge-Modell), dem korporatistischen Modell (Bismarck-Modell) und dem wettbewerblichen Gesundheitssystem bzw. Marktmodell (vgl. Wernitz; Pelz, 2015, S. 35 ff.). Abbildung 2.3.1 zeigt die Einordnung Deutschlands (Bismarck-Modell) und der USA (Marktmodell). Das Beveridge-Modell (Beispiele sind Großbritannien und Schweden: vgl. Wernitz; Pelz, 2015, S. 35 ff.), bei dem der Staat die Versorgungsstruktur strikt per Gesetz vorgibt, wurde an dieser Stelle ausgelassen, da es weder in Deutschland noch in den USA Anwendung findet. Es ist anzumerken, dass Gesundheitssysteme in der Regel in keinem Land den Reinformen der hier veranschaulichten Modelle entsprechen. In der Praxis handelt es sich vielmehr um Mischformen, die Elemente mehrerer Modelle miteinander kombinieren, sich dabei jedoch stark an einem der Prototypen orientieren (vgl. Wernitz; Pelz, 2015, S. 36).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2.3.1 Gesundheitssysteme

(in Anlehnung an Wernitz; Pelz, 2015, S. 36)

Ein wesentliches Merkmal des korporatistischen Systems bzw. des Bismarck-Modells (Deutschland) ist die Selbstverwaltung, durch die der Staat weitreichende Steuerungskompetenzen an die Akteure des Systems überträgt. Dabei kommen sowohl staatliche als auch wettbewerbliche Aspekte zum Tragen. So unterliegen Krankenhäuser z. B. dem Gebot der Wirtschaftlichkeit (vgl. § 12 SGB V u. vdek, 2012) und es herrscht eine Konkurrenzsituation zwischen einzelnen gesetzlichen Krankenversicherungen (vgl. §§ 173 - 175 SGB V). Das korporatistische System ist vorwiegend sozialversicherungsfinanziert (vgl. Wernitz; Pelz, 2015, S. 36). Im Hinblick auf die Kostenerstattung von Gesundheitsleistungen ist das deutsche Gesundheitswesen in einem dualen System bestehend aus der gesetzlichen Krankenversicherung (GKV) und der privaten Krankenversicherung (PKV) organisiert (vgl. IQWiG, 2018, S. 3). Die GKV wird durch Beiträge und Bundeszuschüsse finanziert, wobei der aktuelle Arbeitnehmeranteil an den Beiträgen 7,3 Prozent beträgt (vgl. BMG, 2018/a).

Zu den Merkmalen des Marktmodells (USA) gehören die Entscheidungsfreiheit der Beteiligten, wenig staatliche Regulierung und eine vorwiegend private Finanzierung (vgl. Wernitz; Pelz, 2015, S. 35 f.). Allerdings existieren auch in den USA seit der Verabschiedung des Affordable Care Acts (ACA) im Jahr 2010 vermehrt staatlich regulierte Strukturen: Seit Januar 2014 sind laut Angaben des DPE Research Departments beinahe alle US-Amerikaner zum Abschluss einer Krankenversicherung verpflichtet, wobei private Anbieter, Arbeitgeber sowie öffentliche Programme wie Medicare oder Medicaid in Frage kommen. Während im Jahr 2013 noch mehr als die Hälfte aller US-amerikanischen Gesundheitsausgaben privatfinanziert wurden (vgl. DPE Research Department, 2016), gab der durchschnittliche Privathaushalt im Jahr 2017 fast 70% (entspricht ca. 3.414 US-Dollar) seiner Gesundheitsausgaben für Krankenversicherungsschutz aus (vgl. U.S. Bureau of Labor Statistics, 2017). Im selben Jahr entsprachen die durchschnittlichen Krankenversicherungsausgaben US-amerikanischer Privathaushalte demnach ca. 5,6% des durchschnittlichen Haushaltseinkommens (entspricht ca. 61.372 US-Dollar) (vgl. U.S. Census Bureau, 2017).

2.3.2 Elektronische Speicherung von Gesundheitsdaten

Bei Gesundheitsdaten handelt es sich im Sinne der DSGVO um „personenbezogene Daten, die sich auf die körperliche oder geistige Gesundheit einer natürlichen Person, einschließlich der Erbringung von Gesundheitsdienstleistungen, beziehen und aus denen Informationen über deren Gesundheitszustand hervorgehen" (DSGVO, Art. 4 Nr. 15). Darin enthalten sind laut dem Bundesministerium für Wirtschaft und Energie z. B. Informationen aus Untersuchungen eines Körperteils sowie genetische Informationen, die sich auf den physiologischen oder biomedizinischen Zustand der betroffenen Person oder deren Krankheiten, Krankheitsrisiken (einschließlich Vermutungen zu bestimmten Veranlagungen der betroffenen Person aufgrund familiärer Vorbelastungen), Behinderungen oder Behandlungen beziehen. Auch Daten aus Fitness- und Health-Apps oder Smart Watches gelten demnach als Gesundheitsdaten (vgl. BMWi, 2018).

Das Bundesgesundheitsministerium hat erkannt, dass die Menge an verfügbaren Gesundheitsdaten mit der voranschreitenden Digitalisierung rasch zunimmt und befasst sich im Rahmen der eHealth-Initiative mit der Möglichkeit, solche Daten für die Steuerung von Versorgungsprozessen zu nutzen. Darunter fallen unter anderem auch die in den Abschnitten 2.2.2 und 2.2.3 beschriebenen Big-Data-Anwendungen (vgl. BMG, 2018/b). Aus technischer Sicht ist in einem vernetzten Gesundheitssystem somit für ML-Anwendungen der Zugriff auf vielfach größere Datenmengen denkbar, wo bisher nur auf geringe Datenbestände aus klinischen Studien zurückgegriffen werden konnte. Im Hinblick auf die Entwicklung der Gensequenzierung (siehe 2.1.2, 2.3.3) ergeben sich somit Chancen für die Etablierung der Systemmedizin bzw. der personalisierten Medizin. Eine weitere Voraussetzung hierfür bleibt jedoch, dass das Problem der mangelnden Strukturiertheit der Datenbestände gelöst wird, auf das Binder verweist (vgl. Binder, 2018, S. 266). Als wesentlichen Teil der Agenda mit Blick auf Deutschland nennen Langanke et al. diesbezüglich die elektronische Patientenakte (ePA) (vgl. Langanke et al., 2019, S.183), deren Einführung im eHealth-Gesetz verankert ist. Ihre Funktion ist im fünften Sozialgesetzbuch festgelegt (vgl. § 291 a Abs. 3 Nr. 4 u. 5 SGB V). Der aktuelle Koalitionsvertrag sieht vor, dass bis 2021 für jeden Versicherten eine digitale Patientenakte verfügbar sein muss (vgl. Koalitionsvertrag zwischen CDU, CSU und SPD, 2018, S.101). Die BDI-Initiative Gesundheit Digital der industriellen Gesundheitswirtschaft (iGW) bemängelt jedoch Unklarheiten hinsichtlich der ePA im Zusammenhang mit dem Datenschutz. Probleme, die sich als Folge der komplexen Rechtslage ergeben, werden durch den Föderalismus verstärkt, da in Deutschland neben DSGVO und BDSG auch 16 verschiedene Landesdatenschutzgesetze zu beachten sind (vgl. BDI, 2018/a, S. 4).

Zum Vergleich mit den US-amerikanischen Rahmenbedingungen ist ein Blick auf die Besonderheiten der jeweiligen Gesundheitssysteme hilfreich, die in Abschnitt 2.3.1 erläutert wurden: Da sich das Gesundheitssystem der USA stark am Marktmodell orientiert, ist die Frage nach der Speicherung von Gesundheitsdaten grundsätzlich privaten Anbietern überlassen, d.h. der jeweilige Leistungserbringer kann mit der Zustimmung des Patienten eine Gesundheitsakte anlegen (vgl. HITECH, Public Law 111-5). Anders als in Deutschland zielt dieser Ansatz nicht auf eine zentrale Speicherung ab, sondern bringt bereits konzeptionell eine Fragmentierung der Datenlandschaft mit sich. Um dieses Problem zu entschärfen, haben die US-Behörden das 'Trusted Exchange Framework and Common Agreement' (TEFCA) des Office of the National Coordinator for Health Information Technology (ONC) ins Leben gerufen, welches die Voraussetzungen für den Austausch von Gesundheitsdaten zum Zweck von innovativen Gesundheitslösungen schaffen soll (vgl. ONC, 2019). Dabei handelt es sich um ein im 21st Century Cures Act vorgesehenes organisatorisches Rahmenwerk für die Zusammenführung unterschiedlicher Gesundheitsinformationsnetzwerke. Hervorzuheben ist der Aspekt des freiwilligen Beitritts (vgl. ebd., S. 9 ff.). TEFCA befindet sich aktuell in der Phase des zweiten Entwurfs. Auf Anfrage des Verfassers konnte das ONC zum Zeitpunkt der Fertigstellung der vorliegenden Arbeit jedoch keine Einschätzung dazu abgeben, zu welchem Datum mit der finalen Version gerechnet werden kann. Der Entwurf des ONC gliedert sich in zwei Teile: Zum einen beschreibt er die sechs Kernprinzipien: 1) Standardisierung, 2) Transparenz, 3) Kooperation und Gleichbehandlung, 4) Datenschutz und Datensicherheit, 5) Leichter Zugang (für Berechtigte) und 6) Umfassender Datenaustausch (vgl. ONC, 2019, S. 24). Zum anderen beinhaltet er allgemeine Geschäfts- und Nutzungsbedingungen hinsichtlich der technischen bzw. organisatorischen Mindestanforderungen für die Partizipation (vgl. ONC, 2019, S. 31 ff.). Die BDI-Initiative Gesundheit stellt hinsichtlich der Einführung der ePA unter anderem die Frage, ob auch Deutschland eine mit dem ONC vergleichbare Institution benötigt (vgl. BDI, 2018/b, S. 12).

2.3.3 KI-Strategien und medizintechnische Initiativen

Groth et al. vergleichen in einer Studie der Konrad-Adenauer-Stiftung unter anderem den Stand der Entwicklung und Anwendung künstlicher Intelligenz in den USA und in Deutschland. Dabei bescheinigen sie den USA hinsichtlich einer Kombination an Faktoren eine Führungsposition. Zusammenfassend lassen sich die folgenden Punkte hervorheben: Die USA waren 2016 weltweit das erste Land, das eine nationale KI-Strategie entwickelte. Darin enthalten ist die Förderung von KI-Forschung und -Entwicklung mit jährlich 1,3 Mrd. US-Dollar (entspricht ca. 1,16 Mrd. Euro). Dieser Betrag beinhaltet jedoch nicht die Beiträge der Fachministerien. So investiert allein das US-Verteidigungsministerium rund 6,3 Mrd. Euro jährlich (Stand 2017) und schafft damit einen Markt für KI. Auch im Hinblick auf die US-Bundespolitik sehen Groth et al. eine klare Strategie zum Abbau von regulatorischen Hemmnissen, um die Kommerzialisierung von KI voranzutreiben. Darüber hinaus verweisen die Autoren auf gute Kooperationsstrukturen zwischen Behörden, Wirtschaft und Universitäten. In den USA promovieren jährlich ca. 3.000 Forscher im Feld der KI, es existieren ca. 1.400 KI-Startups und sieben der weltweit zehn größten Technologiefirmen sind in den USA ansässig (vgl. Groth et al., 2018, S. 11 f.).

Für Deutschland hingegen beklagt das Fraunhofer Institut das Fehlen von rund 85.000 Akademikerinnen und Akademikern mit fundierten Kenntnissen in den Bereichen Datenanalyse und Big-Data speziell im medizinischen Sektor (vgl. Döbel et al., 2018, S. 38). Groth und Straube kommen zu dem Schluss, dass Deutschland seine nationale Strategie zur KI-Förderung im internationalen Vergleich sehr spät (im Dezember 2018) vorstellte und bescheinigen Deutschland einen Rückstand gegenüber den USA sowie anderen Ländern nicht nur hinsichtlich von Talenten und Rechenleistung, sondern auch hinsichtlich der Größe des Datenpools: 74 Mio. Internetnutzern in Deutschland stehen ca. 211 Mio. Internetnutzer in den USA gegenüber (Stand 2016). Ein weiteres Problem neben der geringen Größe des Datenpools ist dessen Fragmentierung. Den Hauptgrund hierfür sehen die Autoren im föderalen System. Den USA bescheinigen sie eine bessere Koordinierung behördlicher Maßnahmen (z. B. durch die DARPA und das Office of Science & Technology) zur Überwindung föderalistischer Hürden. Auch am privatwirtschaftlichen Markt sind die USA der Studie zufolge im Vorteil: Wie oben erwähnt verfügt das Land über eine große Zahl an globalen Technologiekonzernen, während in Deutschland SAP das einzige internationale digitale Plattform-Unternehmen ist. Die Autoren stellen in Frage, ob die deutsche KI-Strategie geeignet ist, die genannten Rückstände aufzuholen, da die deutsche Förderung mit lediglich 500 Mio. Euro im Jahr nur einem Bruchteil der Förderung in den USA entspricht (s. o.). Groth und Straube empfehlen daher vor allem die Zusammenarbeit auf europäischer Ebene zur Schaffung einer ebenbürtigen Forschungs- und Technologielandschaft sowie zur Erzeugung einer kritischen Datenmasse. In Bezug auf rechtliche Hürden merken sie an, dass die strenge Datenschutzgrundverordnung EU-DSGVO den Datenaustausch zwar erschwert, in einem späteren Stadium jedoch aufgrund des hohen Schutzniveaus für den Anschluss weiterer globaler Akteure einen Vorteil gegenüber den USA darstellen könnte (vgl. Groth; Straube, 2019, S. 10 f.).

Auf Regierungsebene haben sowohl die USA als auch die EU die Bedeutung des Gesundheitswesens innerhalb der KI und damit der personalisierten Medizin erkannt (vgl. The White House, 2015 u. National Science and Technology Council, 2016, S. 5 u. European Commission, 2018). In Deutschland zeigt die Medizininformatik-Initiative Teilbereiche einer möglichen Umsetzungsstrategie auf: Die Bezeichnungen der jeweiligen Arbeitsgruppen, in die sich ihr Steuerungsgremium gliedert, können exemplarisch als Verweis auf die Voraussetzungen dienen, die für eine Umsetzung erforderlich sind: Kommunikation (betrifft unter anderem organisatorische Voraussetzungen), Consent (betrifft vor allem rechtliche Voraussetzungen), Data Sharing (betrifft sowohl organisatorische als auch rechtliche Voraussetzungen) und Interoperabilität (betrifft technische Voraussetzungen) (vgl. TMF, o. J. /b).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2.3.2 Medizininformatik-Initiative: Struktur und Akteure

(in Anlehnung an TMF, o. J. /b)

Hierbei handelt es sich allerdings lediglich um ein Pilotprojekt unter Einbezug weniger Universitätskliniken. In den USA (wie beispielsweise auch in China) hingegen werden Ansätze zur strukturierten Nutzung der Erkenntnisse aus der Gensequenzierung bereits in größerem Maßstab vorangetrieben: in den USA mit der Precision Medicine Initiative, die mithilfe der Genomsequenzierung einer Million US-Bürger den Weg für präzisionsmedizinische Ansätze bereiten soll. In China existiert ein entsprechender Ansatz mit der China National Genebank (vgl. Zhang, 2015, S. 34).

[...]

Ende der Leseprobe aus 93 Seiten

Details

Titel
Wie Machine Learning die Diagnose- und Therapieentscheidungen verbessert. Technische, organisatorische und rechtliche Voraussetzungen in der modernen Medizin
Autor
Jahr
2020
Seiten
93
Katalognummer
V502507
ISBN (eBook)
9783960957980
ISBN (Buch)
9783960957997
Sprache
Deutsch
Schlagworte
Personalisierte Medizin, Machine Learning, Onkologie, Digitalisierung, Künstliche Intelligenz, Gesundheitssysteme
Arbeit zitieren
Tobias Wischemann (Autor), 2020, Wie Machine Learning die Diagnose- und Therapieentscheidungen verbessert. Technische, organisatorische und rechtliche Voraussetzungen in der modernen Medizin, München, GRIN Verlag, https://www.grin.com/document/502507

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Wie Machine Learning die Diagnose- und Therapieentscheidungen verbessert. Technische, organisatorische und rechtliche Voraussetzungen in der modernen Medizin


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden