Reifegrad und Potenzial der Nutzung von Künstlicher Intelligenz (KI) in der Medizintechnik

Perspektiven der Anwendung für klinische Prozesse


Bachelorarbeit, 2022

88 Seiten, Note: 1,7


Leseprobe


Inhaltsverzeichnis

Eidesstattliche Erklärung

Zusammenfassung

Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1. Einleitung

2. Angewandte Methodik

3. Grundlagen
3.1 Künstliche Intelligenz
3.1.1 Begriffsbestimmung und Entwicklung
3.1.2 Starke und schwache Künstliche Intelligenz
3.1.3 Teildisziplinen der Künstlichen Intelligenz
3.1.4 SWOT-Analyse zur Verwendung von Künstlicher Intelligenz
3.2 Reifegrad und Reifegradmodelle
3.2.1 Relevante Definitionen
3.2.2 Bisherige KI-Reifegradmodelle

4. Künstliche Intelligenz im Rahmen der Medizin
4.1 Digitaler Reifegrad in der Medizin
4.1.1 Digitale Reifegradmodelle für die Anwendung in Krankenhäusern
4.1.2 Die Bedeutung des Krankenhauszukunftsgesetzes
4.2 Anwendungsfelder der KI in klinischen Prozessen
4.2.1 Praxisbeispiele für gesundheitsversorgende Abläufe
4.2.2 Praxisbeispiele für administrative Abläufe

5. Ergebnisse zur Umfrage zum Einsatz von KI in der Medizin
5.1 Kritische Stellung zur Umfrage
5.2 Auswertung der Antworten zur Befragung

6. Perspektiven für die Zukunft
6.1 Zukunftsmodelle der digitalisierten Medizin
6.2 Herausforderungen und Grenzen

7. Fazit und Ausblick

Literaturverzeichnis

Anhangsverzeichnis

Zusammenfassung

Mit der Zunahme an Verfahren von Künstlicher Intelligenz (KI) übernehmen lernende Systeme fort und fort mehr Aufgaben in den unterschiedlichsten Bereichen und übertreffen stets ihre eigenen Leistungen. Diese Bachelorthesis untersucht den aktuellen Stand der digitalen Reife im medizinischen Sektor unter Berücksichtigung der Perspektiven der Anwendung von KI in klinischen Prozessen, die sowohl gesundheitsversorgende als auch administrative Abläufe umfassen. Dazu werden Reifegradmodelle zur Ermessung der Krankenhaus-IT aufgegriffen sowie die aktuellen Anwendungsfelder der KI vorgestellt. Zukunftsmodelle, die zur Ausschöpfung der KI beitragen können, werden unter Beachtung von Herausforderungen, denen lernende Systeme gegenüberstehen, aufgezeigt. Ausgehend von den gewonnenen Kenntnissen werden Handlungsmaßnahmen zur Reduzierung der Hürden hinsichtlich der Anwendungsmöglichkeiten empfohlen.
Abgerundet wird die Thesis mit zwei Vorschlägen für weiterführende Forschungs-
arbeiten. Die methodische Vorgehensweise erfolgt sowohl literaturbasiert als auch
anhand einer Online-Umfrage, wobei das Letztere zur Ermittlung der Einschätzung der Gesellschaft bezüglich den Möglichkeiten und Begrenzung von KI-Anwendungen dient.

Abstract

As artificial intelligence (AI) techniques become more common, learning systems are
taking more tasks in a diverse number of domains, always outperforming themselves.
This bachelor thesis examines the current level of digital maturity in the medical sector and the future perspectives of using AI in clinical processes, which include healthcare and administrative processes. For this purpose, maturity models for measuring
hospital-IT and the application fields of AI, future models that can lead to exploit the full potential of AI and the challenges that go with, are presented. Based on the knowledge gained, action steps are recommended to reduce the barriers regarding the application possibilities of AI systems. The thesis ends with two proposals for further research. The research is based on a literature review and an online survey, which is used to identify people's opinions on the possibilities and limitations of AI applications.

Abbildungsverzeichnis

Abbildung 1: Entwicklungsverlauf der Künstlichen Intelligenz

Abbildung 2: Kategorien der schwachen Künstlichen Intelligenz

Abbildung 3: Teildisziplinen der Künstlichen Intelligenz

Abbildung 4: Veranschaulichung zum Vorher-Nachher Bild eines überwachten Lern-systems

Abbildung 5: Vorher-Nachher Bild eines K-Means Clustering

Abbildung 6: Deep Feed Forward Netzwerk mit zwei verborgenen Schichten

Abbildung 7: SWOT-Analyse zur Verwendung von Künstlicher Intelligenz

Abbildung 8: Stufen des Capability Maturity Models

Abbildung 9: Segmente des DHMW-Models

Abbildung 10: Segmente des DigitalRadar

Abbildung 11: Digitale Patientenreise

Abbildung 12: Hautkrebs-Klassifizierungsleistung eines CNN und von Dermatologen

Abbildung 13: Installierte Da-Vinci-Systeme zwischen 2018 und 2020

Abbildung 14: Das Da-Vinci-System

Abbildung 15: Auswertung der Frage zur Bereitschaft einer OP mit dem Da-Vinci-
System

Abbildung 16: Auswertung der Frage zur Bereitschaft einer vollautonomen OP

Abbildung 17: Auswertung der Frage zur sozial-emotionalen Verhaltensweise eines Arztes

Abbildung 18: KI in der Medizin – Potenziale, Herausforderungen und Maßnahmen

Tabellenverzeichnis

Tabelle 1: Vergleich von drei KI-Reifegradmodellen

Tabelle 2: Vergleich der Reifegradmodelle HIN, CCMM, EMRAM und O-EMRAM

Tabelle 3: Dokumentationsaufwand in Kliniken

Tabelle 4: Übersicht der Teilnehmenden an der Umfrage

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1. Einleitung

„KI ist so grundlegend. Wir sind an einem Punkt angelangt [ …], dass sich Möglichkeiten für einfach unglaubliche Dinge eröffnen. Und es wird von hier an nur noch besser
werden. Wir alle müssen sichergehen, dass wir KI zum Wohle der Menschheit nutzen
und nicht umgekehrt.“

- Tim Cook, CEO von Apple, 2017 im Interview mit MIT Technology Review

Anwendungen der Künstlichen Intelligenz – im Folgenden mit KI bezeichnet – sind bereits seit längerer Zeit Bestandteil unseres Alltags; seien es Suchmaschinen, Autokorrekturen von Wörtern oder auf uns abgestimmte Werbeanzeigen. Der technische Fortschritt, welcher seit der Industrialisierung immer weiter zunimmt, bleibt nicht verschont. Insbesondere sind die Möglichkeiten der Verfahren von KI-Systemen in den letzten Jahren enorm angestiegen und revolutionieren verschiedene Branchen und eröffnen in diesen neue Wege, wie auch aus dem obigen Zitat des CEOs von Apple, Tim Cook, hervorgeht.

Das Ziel der vorliegenden Arbeit ist die Untersuchung des aktuellen Reifegrades zur Anwendung der KI im medizinischen Sektor und das Aufzeigen der Einsatzpotenziale von KI-Systemen unter Berücksichtigung der damit einhergehenden Herausforderungen und Grenzen. Da im Umfang der Arbeit nicht auf die Nutzung innerhalb der gesamten Medizinbranche eingegangen werden kann, werden klinische Prozesse betrachtet, die im Krankenhaus sowohl administrative als auch gesundheitsversorgende Abläufe umfassen [73; S. 1]. Zunächst werden die Grundlagen über die KI sowie Reifegradmodellen gegeben. Daraufhin werden diese in den medizinischen Kontext gebracht, indem die digitale Reife deutscher Kliniken untersucht wird und die Anwendungsfelder von KI-Systemen innerhalb dieser aufgezeigt werden. Durch eine Online-Umfrage wird auf die aktuelle Einschätzung der Bevölkerung hinsichtlich der Möglichkeiten und Begrenzungen von KI-Anwendungen eingegangen. Nach der Auswertung der Umfrageergebnisse folgen anschließend die Perspektiven für die Zukunft, vollendet mit Empfehlungen für weiterführende Forschungsarbeiten in diesem Themenfeld. Zu betonen ist, dass der betrachtete Forschungsbereich KI außerordentliche Fortschritte macht und eventuell in kurzer Zeit, nach oder während der Veröffentlichung dieser Arbeit, neue Publikationen mit neuen Erkenntnissen erscheinen können, die hier nicht einbezogen wurden. Die Arbeit bezieht sich lediglich auf Informationen, die zum Zeitpunkt der Erstellung zur Verfügung standen.

Die Forschungsfrage der vorliegenden Arbeit lautet wie folgt:

In welchem Umfang finden derzeit existierende computergestützte Systeme Einsatz in der Medizin und wie sehr kann das Potenzial der Künstlichen Intelligenz ausgeschöpft werden, ohne dass jegliche ethisch-moralischen Werte und rechtlichen Aspekte verletzt werden?

2. Angewandte Methodik

Um relevante Literatur für das ausgewählte Themenfeld zu finden, wurde die
Systematic Literature Review (SLR) Methode angewendet. Diese eignet sich insbesondere für die Ermittlung möglichst aller vorhandenen Literaturstellen zu einem betrachteten Themenfeld, um daraus den aktuellen Forschungsstand und den offenen Forschungsbedarf zu ermitteln [29]. Die systematische Recherche unterscheidet sich von nicht-systematischen Recherchen in erster Linie durch das Definieren von Ein- und Ausschlusskriterien sowie der notwendigen Beschreibung der Vorgehensweise [29].

Zunächst wird die Forschungsfrage definiert, die im Laufe der Arbeit beantwortet werden soll, wobei auch mehrere Forschungsfragen aufgestellt werden können. Darauf folgt die Festlegung der Recherchequellen beziehungsweise Datenbanken, in denen nach Literaturstellen gesucht wird [29]. Hierbei werden die Datenbanken hinsichtlich ihrer Themengebiete sowie der vielfältigen Publikationstypen ausgewählt, um ein weites Spektrum an Ergebnissen zu erzielen. Ebenso wird darauf geachtet, dass die Recherchequellen in der Gegenwart liegende Publikationen beinhalten. Dies ist insbesondere für die vorliegende Arbeit von großer Relevanz, da das Thema sehr aktuell ist und jederzeit neue Veröffentlichungen publiziert werden können. Ausgehend von diesen Kriterien wurden für die vorliegende Arbeit folgende Datenbanken zur Literatursuche verwendet: PubMed [74], PMC [80], ScienceDirect [91], Meditec [72], EconBiz [35], SpringerLink [94], ResearchGate [82] und Google Scholar [45].

Nachdem die zu verwendenden Datenbanken bestimmt wurden, werden Suchbegriffe in Form einer Begriffsmatrix (siehe Anhang 1), bestehend aus Themenblöcken, festgelegt [29]. Die Themenblöcke beinhalten jeweils verschiedene Begriffe mit derselben oder einer ähnlichen Bedeutung. Zweck dieser Begriffsbestimmungen ist es, bei dem Suchvorgang möglichst alle Quellen zum betrachteten Themenfeld zu finden. Je mehr Begriffe aus einer Wortgruppe gesucht werden, umso höher ist die Wahrscheinlichkeit, auf möglichst viele Literaturstellen zu stoßen. Durch gezielte Kombination der Suchbegriffe durch boolesche Operatoren wird am Ende eine Datenmenge an Literaturstellen gewonnen [29]. Unter Berücksichtigung von Ein- und Ausschlusskriterien werden diese Treffer nochmals gefiltert und ausschließlich diejenigen verwendet, deren Abstracts und Schlagwörter inhaltlich für das ausgewählte Themengebiet ansprechend sind [29]. Um diese Auswahlkriterien zu berücksichtigen, wurde mit dem Literaturverwaltungsprogramm Citavi [99] gearbeitet. Stehen alle inhaltlich zutreffenden Quellen bereit, werden diese mehrmals präzise durchgelesen und als Grundlage für die Forschungsarbeit verwendet.

Neben der SLR-Methode wurde für die vorliegende Arbeit eine Online-Umfrage erstellt, welche als unterstützendes Element für die Forschungsergebnisse dienen soll. Anhand dieser Umfrage wird die Ermessung der Akzeptanz und Nutzbereitschaft der Gesellschaft gegenüber dem Einsatz von computergestützten Systemen im medizinischen Sektor beabsichtigt. Im Rahmen der Datenerhebung wurde eine Online-Umfrage durchgeführt, mit dem Ziel, möglichst viele Teilnehmende zu erreichen. Insbesondere sollten diejenigen befragt werden, die voraussichtlich von den Technologien der Zukunft am meisten betroffen wären, sprich die Generation Z.

Die Umfrage beinhaltet insgesamt 14 Fragen, welche in zwei Kategorien unterteilt sind. Die ersten vier Fragen geben Auskunft über die Teilnehmenden, wobei die übrigen zehn Fragen auf den Forschungsbereich ausgerichtet sind. Beim Übergang zu den thematischen Fragen wurde das Da-Vinci-System1 kurz vorgestellt, da davon ausgegangen wurde, dass nicht alle Teilnehmenden sich mit dem System auskennen. Der inhaltliche Schwerpunkt der Fragen liegt hauptsächlich in der Chirurgie. Bei der Fragenformulierung wurde insbesondere darauf geachtet, keine manipulativen oder zweideutigen Fragen zu stellen. Dies ist im Hinblick auf die Zuverlässigkeit beziehungsweise die Qualität der Antworten sehr wichtig [9; S. 7]. Entsprechend der quantitativen Forschung wurden namentlich skalierte- oder Multiple-Choice Fragen mit festgelegten Antworten gestellt, ausgenommen die letzte Frage, bei der willkürliche Anmerkungen zum Themenfeld gegeben werden konnten. In Kapitel 5 wird zur durchgeführten Online-Umfrage kritische Stellung genommen sowie einige Ergebnisse vorgestellt und ausgewertet.

3. Grundlagen

3.1 Künstliche Intelligenz

Um den Begriff Künstliche Intelligenz zu verstehen, wird zunächst auf die Entstehung des Wortes Bezug genommen und die Entwicklung über die Jahre hinweg betrachtet. Es wird zwischen schwacher und starker KI differenziert und auf die Teildisziplinen der KI eingegangen, welche für ein besseres Verständnis des 4. Kapitels dienen sollen. Darauf aufbauend folgt eine SWOT-Analyse, um die allgemeinen Stärken und Chancen der Verwendung von KI-Systemen den Schwächen und Risiken gegenüberzustellen.

3.1.1 Begriffsbestimmung und Entwicklung

Wird nach der Definition des Begriffs KI gesucht, so wird man keiner eindeutigen Begriffsbestimmung fündig und stößt auf verschiedene Definitionsvarianten, welche jeweils eigene Tendenzen einschließen. Ihren Ursprung hat der Begriff KI bereits Ende der 1955er Jahre. Der Programmierer John McCarthy führte in den USA während der Dartmouth Konferenz2 den Begriff Artificial Intelligence zur Bezeichnung der Entwicklung von Maschinen ein, welche Verhaltensweisen von menschlicher Intelligenz aufweisen [71; S. 1]. McCarthy und drei weitere Forscher3 in diesem Forschungsbereich waren der Ansicht, dass alle Aspekte des Lernens beziehungsweise jedes andere Merkmal von Intelligenz so genau beschrieben und abgebildet werden könne, dass sie von einer Maschine simuliert werden kann [71; S. 1]. Ein Jahr später erschien das erste KI-Programm Logic Theorist 4 von Newell und Simon, das menschliche Fähigkeiten hinsichtlich der Lösung von komplexen Problemen besaß [47; S. 1]. Die mit dem Logic Theorist neu entstandenen Ideen über mentale Repräsentation und Problemlösung sind Grundsteine der heutigen Informationsverarbeitung [47; S. 1]. Im Jahr 1958 entwickelte McCarthy die Programmiersprache Lisp, welche für List Processing steht und sich mit der Verarbeitung von Listen beschäftigt. Im Vergleich zu den damals existierenden Programmiersprachen lag der Fokus bei der Verarbeitung von Symbolen anstelle von Zahlen [49; S. 178]. Somit konnten erstmals algebraische Formeln symbolisch dargestellt und verarbeitet werden [49; S. 178]. Ein Kerngebiet der KI ist das maschinelle Lernen, welches 1959 von Arthur Samuel geprägt wurde [10]. Samuel bezeichnete damit die Lernfähigkeit von Computern, ohne dafür programmiert werden zu müssen [10].5

Der Informatiker Joseph Weizenbaum entwickelte 1966 den Chatbot ELIZA, welcher erstmalig eine Mensch-Maschine-Interaktion auf natürlicher Sprache ermöglichte [84; S. 10]. An autonomen Fahrzeugen wird nicht erst seit jüngster Zeit geforscht – das erste fahrerlose Auto wurde bereits 1968 von Continental entwickelt und getestet [67]. Im Jahr 1997 erschienen weltweit Schlagzeilen über den erstmaligen Sieg der KI im Schach. Der damalige Schachweltmeister Garry Kasparov verlor das Spiel gegen den vom IBM entwickelten Computer Deep Blue [57; S. 58]. Seit der Zunahme an maschinellen Lernverfahren in den 2010er Jahren erzielen die Systeme immer mehr Erfolge und liefern bessere Ergebnisse. Im Februar 2011 verkündete die New York Times den Sieg von IBM Watson im TV-Quiz „Jeopardy!“ gegen die damaligen beiden größten Champions der TV-Show [57; S. 61].

Im medizinischen Kontext wurde 2015 ein wesentlicher Erfolg erzielt. ResNet (Residual
Network), ein von Microsoft Research entwickeltes Deep Learning System, gewann die
ImageNet Large Scale Visual Regognition Challenge (ILSVRC)6 [86] und übertraf dabei erstmals die menschliche Leistung [103]. Vier Jahre darauf wurden auch Dermatologen durch künstliche neuronale Netze bei der Krebsdiagnose mit einem klaren Unterschied geschlagen – lediglich sieben von den teilnehmenden 157 Dermatologen aus 12 Universitätskliniken in Deutschland konnten bessere Ergebnisse als den vom deutschen Krebsforschungszentrum entwickelten Algorithmus erzielen [14; S. 51]. Ferner wurde der
18-fache Go-Weltmeister Lee Sedol im Jahre 2016 von Google mit AlphaGo besiegt [57; S. 62], woraufhin er nach einigen Jahren seine Karriere als Go-Spieler beendete, mit der Begründung, dass KI niemals besiegt werden könne [105]. Im Januar 2020 schnitt ein DeepMind Algorithmus im Vergleich zu sechs Radiologen in der Brustkrebsfrüherkennung besser ab und bewies erneut das Potenzial der KI in der Diagnostik [79; S. 660]. Drei Monate später wurde ebenso eine Studie zur höheren Erfolgsrate eines Algorithmus, im Verhältnis zu Fachexperten, in der Früherkennung von Osteoporose7 bei Knochenbrüchen veröffentlicht [79; S. 660]. In Abb. 1 findet sich eine Übersicht zum aufgeführten Entwicklungsverlauf der KI.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Entwicklungsverlauf der Künstlichen Intelligenz (eigene Darstellung)

3.1.2 Starke und schwache Künstliche Intelligenz

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Kategorien der schwachen Künstlichen Intelligenz in Anlehnung an [18; S. 5]


KI-Systeme werden in zwei Kategorien unterteilt; schwache KI und starke KI. Bei der
schwachen KI handelt es sich um aktuell existierende KI-Systeme, die sich durch ihren Fokus auf einen bestimmten Bereich kennzeichnen [104]. Solche Systeme simulieren intelligentes Verhalten, sind an sich jedoch nicht intelligent [106; S. 86]. Der von Google entwickelte AlphaGo, Siri von Apple oder im medizinischen Kontext verwendete Algorithmen für Bildgebung sind Beispiele dafür. Systeme der schwachen KI können aus gesammelter Erfahrung lernen, das Erlernte allerdings nicht auf andere Gebiete anwenden beziehungsweise übertragen - der Lernprozess dient lediglich der stetigen Optimierung des jeweiligen Untersuchungsgebiets [96]. Von großem Nutzen sind Algorithmen dieser Art für die Lösung wiederholt auftretender, komplexer Probleme. Die Bundesregierung unterteilt die Anwendungsfelder der schwachen KI in fünf Kategorien, siehe Abb. 2 [18; S. 5]. Eine Kategorie umfasst Deduktionssysteme, die auf Basis reiner Logik aus bestehenden Daten Schlussfolgerungen ziehen und dadurch neue Daten generieren [18; S. 5].

Diese Form von Programmen wird hauptsächlich zum Beweis der Richtigkeit von Hardware und Software eingesetzt [18; S. 5]. Die zweite Kategorie beinhaltet wissensbasierte Systeme, welche menschliches Expertenwissen durch Software simulieren [18; S. 5]. Einsatz findet sie hauptsächlich bei der Entscheidungsfindung. Bei dieser Art von Systemen leisten sogenannte künstliche neuronale Netze große Arbeit8. Die dritte Kategorie der schwachen KI ist aus medizinischer Sicht ein essenzieller Forschungsbereich. Induktive Analyseverfahren in Form von Mustererkennung und -analyse unterstützen beispielsweise bei Tumoridentifizierung, indem in Datensätzen nach Mustern gesucht wird
[18; S. 5]. Beschränkt sind sie allerdings auf bereits antrainierte Daten beziehungsweise Muster [8; S. 6]. Ein weiteres Feld der schwachen KI umfasst autonome Systeme, also die Robotik9. Die fünfte und letzte Kategorie der schwachen KI beschäftigt sich mit der sogenannten intelligenten, multimodalen Mensch-Maschine-Interaktion. Diese ist darauf ausgerichtet, menschliche Verhaltensweisen zu analysieren und zu verstehen [18; S. 5]. Dazu gehören beispielsweise die Sprache, Mimik und Gestik sowie andere Formen der menschlichen Interaktion [18; S. 5].

Bei der starken KI handelt es sich um Systeme mit Superintelligenz, die in der Lage sind, wie Menschen zu lernen und zu agieren - in allen Lebensbereichen [106; S. 86]. Systeme solcher Art sind nicht nur auf einen bestimmten Bereich eingeschränkt, sondern beherrschen die menschliche Wahrnehmung und Intelligenz mindestens genauso gut wie der Mensch, wenn sogar besser [106; S. 86]. Mit starker KI können die Systeme Probleme eigenständig finden, untersuchen und lösen. Um ein System der starken KI zuordnen zu können, muss es folgende Voraussetzungen erfüllen und Fähigkeiten besitzen: logisches Denken, Treffen von Entscheidungen bei Unsicherheit, Lernen und Planen und in natürlicher Sprache kommunizieren - diese Fähigkeiten müssen zudem für das Erreichen eines gemeinsamen Ziels eingesetzt werden [104].

Hinsichtlich der Umsetzung der starken KI gibt es von mehreren bekannten Persönlichkeiten kritische Äußerungen und Bedenken. Stephen Hawking äußerte sich über die KI wie folgt: „Eine superintelligente KI wird extrem gut darin sein, ihre Ziele zu erfüllen. Wenn diese nicht mit unseren in Einklang stehen, haben wir ein Problem“ [41]. Auch sagte er, dass die Entwicklung einer vollständigen KI das Ende der Menschheit bedeuten könnte [101]. Auf die expliziten, denkbaren Risiken von Künstlicher Intelligenz soll in Abschnitt 3.1.4 anhand einer SWOT-Analyse eingegangen werden.

3.1.3 Teildisziplinen der Künstlichen Intelligenz

Im folgenden Abschnitt sollen Begriffe in Betracht gezogen werden, die im Rahmen der KI von Bedeutung sind. Es wird nicht tief ins Detail eingegangen, sondern nur ein grober Überblick geschaffen, welcher als Grundlage für Kapitel 4 dienen soll.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Teildisziplinen der Künstlichen Intelligenz in Anlehnung an [93]


Bei der KI wird menschliche Intelligenz mechanisiert, indem der Computer aus einer Vielzahl von strukturlosen Datenmengen selbstständig Muster erkennt, sich Wissen aneignet und anhand dessen „intelligente“ Entscheidungen trifft [54; S. 87]. Je mehr Daten den Algorithmen zur Verfügung stehen, umso besser lernen sie und erzielen umso genauere Ergebnisse [54; S. 87]. Die KI beinhaltet zwei große Teildisziplinen; Machine
Learning
und dessen Vertiefung Deep Learning, siehe Abb. 3 [88]. Diese beiden Bereiche unterscheiden sich darin, dass mittels maschinellem Lernen Computer als Assistenzsysteme dienen, wobei beim Deep Learning der Computer anhand von neuronalen Netzen zusätzlich wie ein Mensch denken und selbstständig Entscheidungen treffen kann [88].

Wie lernt der Mensch und kann die Lernweise des Menschen auf Maschinen übertragen werden? Diese beiden Fragen sind der Ausgangspunkt für den Forschungsbereich
Maschinelles Lernen [57; S. 43]. Erfahrungen, Praxis, Beobachten und Verstehen, Üben und Wiederholen sind die Hauptbestandteile des menschlichen Lernmechanismus – geistige Anstrengungen sowie Schlussfolgerungen stehen an zweiter Stelle [57; S. 43]. Beim Lernen geht es nicht nur um die reine Informationsaufnahme/Datenerfassung und das Verstehen der in den Daten steckenden Informationen, sondern viel mehr um das Anwenden derer [57; S. 43]. Das Aufgenommene muss nutzbietend weiterverarbeitet beziehungsweise ausgegeben werden [57; S. 43]. Bei Computerprogrammen erfolgt das Lernen durch Extrahieren von Mustern aus Daten, die sie von Menschen zur Verfügung gestellt bekommen [57; S. 44]. Dabei können die Daten verschiedenen Umfang und Inhalt haben: „[aus einem fahrenden Fahrzeug aufgenommene Videos, Berichte aus der Notfallaufnahme, Oberflächentemperaturen von der Arktis, Likes auf Facebook, Aufzeichnungen der menschlichen Sprache, Klicks auf Onlinebewerbungen, Kreditkartentransaktionen oder auch der Börsenhandel]“ [57; S. 44], all diese und weitere Daten, die sich in digitaler Form darstellen lassen, können als Datengrundlage für maschinelles Lernen dienen [57; S. 44]. Je mehr Daten vorliegen, umso bessere Ergebnisse können die Algorithmen erzielen. Dabei ist ein entscheidender, aber kritischer Faktor die Datenqualität – je unzuverlässiger die vorhandenen Daten sind, umso unzuverlässiger wird das Ergebnis des Computers sein [76]. Dabei sind unter unzuverlässigen oder „schmutzigen Daten“ all jene zu verstehen, die nicht der Wahrheit entsprechen [76].

Unterschieden wird grob zwischen überwachten und unüberwachten maschinellem Lernen. Der grundlegende Unterschied dieser beiden Verfahren liegt darin, dass beim überwachten Lernen mit Input-Output-Paaren gearbeitet wird (auch Daten-Label-Paare genannt), wobei beim unüberwachten Lernen nur ein Input gegeben ist und der Output erstmal unbekannt ist [68; S. 381]. Hierbei sucht der Algorithmus eigenständig nach Mustern, um auf ein Ziel zu kommen [68; S. 383].

Beim überwachten Lernen wird der Algorithmus auf bestimmte Merkmale antrainiert, welche ein festgelegtes Ergebnis liefern [68; S. 381]. Man hat als Output zwei oder mehrere Klassen oder auch einen numerischen Wert, den man vorhersagen kann. Hierzu gehören alle Klassifikations- und Regressionsalgorithmen [68; S. 382]. Der Zeitaufwand, den Menschen für solche Modelle investieren müssen, ist enorm hoch, da neben dem Input auch der zugehörige Output eingepflegt werden muss. Dabei spielt die Datenqualität wieder eine wesentliche Rolle. Wenn die eingepflegten Daten schlechter Qualität (Stichwort: Bad Data) sind, sprich nicht der Wahrheit entsprechen, dann wird das System keine nutzbringenden Ergebnisse liefern können [93]. In Abb. 4 ist ein Beispiel für das Ergebnis eines überwachten Lernsystems veranschaulicht. Dem Algorithmus werden Zielwerte mit einer zugehörigen Kategorie vorgegeben (veranschaulicht durch Farben), damit dieser eine sinnvolle Grenze zwischen den Klassen erzeugt (grüne Linie), wobei die Linie im besten Fall so angelegt ist, dass sie den maximal möglichen Abstand
zwischen den Klassen liefert [68; S. 382].

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Veranschaulichung zum Vorher-Nachher Bild eines überwachten Lernsystems in Anlehnung an
[68; S. 382]

Beim unüberwachten Lernen hingegen gibt es keine klaren Zielvariablen, keine Labels [68; S. 383]. Dementsprechend ist der Zeitaufwand zu Beginn im Vergleich zum überwachten Lernen geringer, da keine Output-Werte bestimmt werden müssen [5; S. 23]. Dafür müssen aber mehr Trainingsdaten bereitgestellt werden, damit der Algorithmus zuverlässige Ergebnisse liefert [5; S. 23]. Anhand von verborgenen Mustern, die das System eigenständig erkennt, erzeugt es Gruppen [68; S. 383]. Es ist nicht vorhersehbar, zu welchem Ergebnis das System kommen wird. Diese Methode wird insbesondere beim Data Mining verwendet, bei dem es um die Erkennung von Mustern in komplex strukturierten Daten geht [11; S. 139]. Anhand der identifizierten Muster leitet der Algorithmus Regeln zur Klassifizierung von Gruppen ab, welche mit jeweiligen Eigenschaften beschrieben werden [11; S. 139]. Das Clustering ist hierfür eine essenzielle Methode [11; S. 140]. In Abb. 5 ist das Ergebnis eines K-Means Clustering 10 veranschaulicht. Bei dieser Methode werden Daten aufgrund ihrer Ähnlichkeiten oder Unterschiede eingruppiert, wobei die Ähnlichkeiten der Elemente innerhalb einer Klasse möglichst groß, und die Ähnlichkeiten der Elemente verschiedener Klassen möglichst gering gehalten werden [11; S. 140]. Auch wenn beim unüberwachten Lernen die Algorithmen durch eigenes Analysieren und Verknüpfen von Inhalten auf ein Ergebnis kommen, müssen diese von Datenanalysten ebenfalls analysiert werden, um beurteilen zu können, nach welchen Merkmalen das System zum Entschluss gekommen ist und ob diese Gruppierungsmerkmale sinnvoll gebildet wurden [5; S. 23]. Bei Methoden des maschinellen Lernens geht es also grundsätzlich darum, Maschinen dazu zu befähigen, dass sie ohne Vorprogrammierung eigenständig lernen können.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Vorher-Nachher Bild eines K-Means Clustering in Anlehnung an [68; S. 383]

Beim Deep Learning kann es um beide Methoden des maschinellen Lernens gehen. Hier werden künstliche neuronale Netze (KNN) verwendet, um tiefgründige Datensätze zu analysieren [61; S. 190]. KNN sind mit den menschlichen Gehirnneuronen vergleichbar und versuchen die Funktionsweise dieser zu simulieren [61; S. 184]. Dabei geht es um die Nachbildung des komplexen zentralen Nervensystems, welches für den menschlichen Lernmechanismus verantwortlich ist [102; S. 1057]. Um die Funktionsweise von KNN besser zu verstehen, muss die Funktionsweise des Zentralnervensystems verstanden werden11, denn bei den KNN läuft es im Prinizp gleich ab. Dabei unterscheidet man zwischen drei Neuronentypen/-schichten: Eingabeneuronen, versteckte Neuronen und Ausgabeneuronen. Es gibt verschiedene Netzwerkarchitekturen, die jeweils von der Problemstellung beziehungsweise Komplexität der zu bewältigenden Aufgabe abhängen12. Je mehr verborgene Schichten ein Netzwerk besitzt, umso komplexer und tiefer ist es [83]. In Abb. 6 ist beispielhaft eine Netzwerkstruktur dargestellt, die zwei verborgene Netzwerkschichten, auch hidden Layers genannt, besitzt. Der Mensch als außenstehende Person kann während eines Deep Learning Vorgangs nur die Informationen der Eingabe- und Ausgabeschicht sehen und beurteilen [102; S. 1056]. Was genau in der verborgenen Schicht abläuft und wie das KNN zum Ausgabewert kommt sind unbekannt [102; S. 1056]. Selbst die Programmierer, welche die Software dafür geschrieben haben, wissen nicht, wie das KNN die Entscheidung trifft [51; S. 305]. Dies ist einer der kritischen Aspekte und Nachteile, den unüberwachte Systeme mit sich bringen und der unter der Black Box Problematik aufgegriffen wird [51; S. 307]. Auch besteht das Potenzial der vorprogrammierten Diskriminierung, wenn das KI-System mit unvollständigen Daten (Bias) trainiert wird und dementsprechend nur eine eingeschränkte Zielgruppe in Betracht zieht [23]. Diese Art von Diskriminierung konnte bereits mehrmals beobachtet werden. Im Jahr 2018 wurde veröffentlicht, dass das Bewertungssystem von Amazon Bewerbungen von Frauen minderwertiger bewertete als die von Männern – zurückzuführen war das Ganze auf mehrheitlich männlichen Personen zugehörigen Trainingsdaten [51; S. 308].

Abbildung 6: Deep Feed Forward Netzwerk mit zwei verborgenen
Schichten in Anlehnung an [100]

Abbildung in dieser Leseprobe nicht enthalten

3.1.4 SWOT-Analyse zur Verwendung von Künstlicher Intelligenz

Um die bei der Verwendung von KI-Systemen einhergehenden Vor- und Nachteile zu bestimmen, wurde als Instrument die SWOT-Analyse (Strengths, Weaknesses, Opportunities and Threats) ausgewählt. Diese soll hier zur Identifikation von Stärken und Schwächen von KI-Systemen und den damit verbundenen Chancen und Risiken hinsichtlich ihrer Verwendung dienen. Hierbei werden KI-Systeme unabhängig vom Anwendungsfeld im Gesamten betrachtet.

Stärken und Chancen

Zu den wohl bekanntesten Stärken von KI-Software gehört die Automatisierungsfunktion und die daraus folgende Effizienzsteigerung [40]. Routineaufgaben werden von Maschinen schneller und fehlerfrei erledigt. Fehler, die auf menschliches Versagen zurückzuführen sind, wie aufgrund von Unachtsamkeit, treten bei Maschinen nicht auf, sie werden nicht müde und sind durchgängig einsatzbereit [21]. Laut dem Statistischen Bundesamt (Destatis) sind 89 Prozent der im Jahr 2018 verursachten Verkehrsunfälle in Deutschland auf fehlerhaftes Fahrverhalten zurückzuführen [44]. Demnach könnten autonome Fahrzeuge die Unfallquote deutlich verringern, vorausgesetzt, sie sind mit hohen Sicherheitsstandards ausgestattet [3; S. 11]. Im Vergleich zum Menschen haben sie kein Fokusproblem, sondern müssen nur funktionieren [21]. In der Produktion ermöglichen Maschinen geringere Durchlaufzeiten, Qualitätsverbesserung durch geringeren Ausschuss sowie eine prädiktive Instandhaltung [17]. Indem Unternehmen alltägliche Arbeitsabläufe automatisieren, senken sie ihre Betriebskosten [40]. Ein positiver Nebeneffekt der Übernahme bestimmter Tätigkeiten durch Maschinen ist unter anderem, dass sich die Mitarbeiter auf wichtigere Aufgaben konzentrieren können, welches wiederum die Produktivität steigert [21]. In unterschiedlichen Branchen zeigen KI-Systeme unterschiedliche Vorteile. Die Verarbeitung und Analyse von riesigen Datenmengen in kurzer Zeit ist ein Potenzial, das als Entscheidungsgrundlage für den Menschen von großem Nutzen ist [21]. Auch tragen KI-Systeme zur Steigerung der Sicherheit bei, wie beispielsweise durch Gesichtserkennung bei Strafverfolgung oder der Smartphone Face-ID [21]. KI-Systeme zeigen nicht nur in der Industrie ihre Stärken, sondern sind in unserem Alltag seit längerer Zeit miteingebunden und vereinfachen unser Leben; seien es Sprachassistenzsysteme am Smartphone, intelligente Lautsprecher und Glühbirnen oder auch das autonome Parken. All diese Systeme tragen dazu bei, dass Menschen ihren Alltag angenehmer und leichter gestalten können [40]. Die Etablierung und Verbesserung von KI-Systemen bieten die Möglichkeit, Menschen mit Behinderungen Zugang zum Alltagsleben zu verschaffen – insbesondere treiben autonome Fahrzeuge hier den Fortschritt voran [21]. Der Rollstuhl von Stephen Hawking, der mit dem Voranschreiten seiner Einschränkungen ebenfalls weiter entwickelt und mit zusätzlichen Funktionen ausgestattet wurde, ist ein weiteres Beispiel hierfür [62]. Einer repräsentativen Studie [58] zufolge halten 49 Prozent der Befragten neue Jobprofile im IT-Bereich für möglich. Russell und Norvig zufolge wurden durch Automatisierung in der Informationstechnologie mehr und besser bezahlte Arbeitsplätze geschaffen, als abgeschafft wurden [87; S. 1192].

Schwächen und Risiken

Neben den Stärken haben KI-Systeme auch ihre Schwächen und bringen Risiken mit sich. Die wohl bedeutendste Schwäche, welche wiederum auch als eine Stärke gesehen werden kann, ist ihre Unmenschlichkeit [40]. Hinsichtlich der Vermeidung menschlicher Fehler oder Misserfolge ist dies ein positiver Aspekt – andererseits sind KI-Systeme jedoch aus diesem Grund nur begrenzt einsetzbar in Form von Werkzeugen und Assistenten [40]. Zu den Risiken von KI-Anwendungen gehört unter anderem die Intransparenz der Systeme [63; S. 2]. Bei der Datenanalyse ist in den meisten Fällen nicht bekannt, wie und warum das System zu welchem Ergebnis kommt, wie zuvor aufgeführt. Experten müssen nach Ausgabe der Ergebnisse untersuchen, ob die Ergebnisse plausibel sind oder nicht. Im Falle einer falschen Entscheidung ist rechtlich gesehen, wie beispielsweise bei einer Fehldiagnose, immer noch der Arzt für die Folgen verantwortlich [8; S. 14]. Dies setzt voraus, dass Ärzte solche Systeme lediglich als Entscheidungsgrundlage und Unterstützung für ihre eigenen Diagnosen und Therapieempfehlungen nutzen und nicht blind darauf vertrauen [87; S. 1194]. Zuvor wurde erwähnt, dass laut einer Umfrage die Auseinandersetzung mit KI-Anwendungen neue Jobprofile schaffen kann. Allerdings ist ebenfalls bekannt, dass durch die Automatisierung manch Mitarbeiter überflüssig werden, da ihre Tätigkeiten durch beispielsweise einen Kassenautomaten ersetzt werden [40]. Wie bereits im Abschnitt 3.1.2 aufgegriffen, gibt es große Bedenken hinsichtlich der starken KI. Bei den aktuell existierenden KI-Systemen besteht keine Gefahr auf Kontrollübernahme durch die Systeme, da sie nicht selbstständig agieren können. Die volle Kontrolle liegt immer noch in der Hand des Programmierers oder Anwenders. Bei starker KI hingegen sehe es anders aus, denn diese würde den Menschen in allen Lebensbereichen übertreffen und könnte willkürlich handeln [106; S. 86]. Dabei ist zu bedenken, dass das System Entscheidungen treffen kann, die ein Mensch niemals treffen würde, wie in Science-Fiction dargestellt wird [87; S. 1195]. Für einige mag das nur Science-Fiction erscheinen, zu beachten ist aber, dass die KI, die wir von heute kennen, auch einmal „nur“ Science-Fiction gewesen war. Die Entwicklung der KI wirft somit ethische Fragen auf, wie etwa, in welchen Grenzen KI eingesetzt und inwieweit die Fähigkeit des eigenständigen Lernens und Agierens bei Maschinen implementiert werden sollte [40]. Die Frage „Was wäre wenn“ ist hier wohl das offene Risiko, das aufgrund der ständigen Weiterentwicklung von Technologien aktuell nicht beantwortet werden kann [40]. Damit KI gut funktioniert, sind umfangreiche Datensätze notwendig, die unter anderem sensible Daten oder sogar geschützte Daten betreffen [24; S. 97]. Unvollständige Daten können zur Diskriminierung von bestimmten Personengruppen führen, die auf unvollständig antrainierten Daten zurückzuführen sind, wie in dem Fall von Amazon. Auch besteht bei der Nutzung von solch riesigen Datenmengen das Risiko auf Missbrauch der personenbezogenen Daten oder Cyberangriffen [63; S. 4]. Abb. 7 stellt die oben aufgegriffenen Punkte

Abbildung 7: SWOT-Analyse zur Verwendung von Künstlicher Intelligenz (eigene Darstellung)

der Übersicht halber nochmal dar.

3.2 Reifegrad und Reifegradmodelle

Um das Grundverständnis von Reifegraden zu vermitteln, werden die Begriffe Reifegrad und Reifegradmodelle erleuchtet. Dabei folgt nach der Begriffsbestimmung eine Übersicht zu speziellen KI-Reifegradmodellen.

3.2.1 Relevante Definitionen

Der Reifegrad beschreibt laut Duden den Grad der Reife eine Sache [34]. Um diesen zu bestimmen, werden Reifegradmodelle (engl.: maturity models) herangezogen, die aus mehreren Stufen bestehen. Nach Knackstedt et al. umfasst ein Reifegradmodell „eine Folge von Reifegraden für eine Klasse von Objekten und beschreibt dadurch einen antizipierten, gewünschten oder typischen Entwicklungspfad dieser Objekte in aufeinander folgenden diskreten Rangstufen; beginnend in einem Anfangsstadium bis hin zur vollkommenen Reife“ [60; S. 535]. De Bruin et al. besagen, dass Reifegradmodelle anhand einer Reihe von Kriterien zur Bewertung des Reifegrades entwickelt wurden [26; S. 2].

[...]


1 Näheres dazu unter Kapitel 4.2

2 Die Dartmouth Konferenz ist bekannt als Geburtsstunde der Künstlichen Intelligenz. In der Konferenz wurden insgesamt sieben Themen diskutiert: automatische Computer, Programmierungsart eines Computers zur Sprachnutzung, Neuronale Netzwerke, theoretische Überlegungen zum Umfang einer Rechenoperation, Selbstverbesserung, Abstraktion, Zufälligkeit und Kreativität [71].

3 Die drei weiteren Forscher waren Marvin Minsky aus der Harvard University, Nathan Rochester von IBM Corporation und Claude Shannon von Bell Telephone Laboratories.

4 Zur Vertiefung: In dem Artikel [47] sind weitere erste KI-Programme und die Funktionsweise von Logic
Theorist zu finden.

5 Näheres dazu im Unterkapitel 3.3.

6 Die ILSVRC ist ein seit 2010 jährlich durchgeführter Wettbewerb, bei der Algorithmen hinsichtlich Objekterkennung und Bildklassifizierung gegeneinander antreten und bewertet werden [97].

7 Osteoporose bezeichnet den Abbau von Knochenmasse, welcher unter anderem anhand der bestehenden Knochendichte festgestellt werden kann.

8 Dazu mehr unter 3.1.3

9 Der Einsatz von Operations-Robotern wird in dem Abschnitt 4.2 näher betrachtet

10 Bei K-Means-Algorithmen werden ähnliche Datenpunkte in Gruppen eingeteilt und bekommen einen K-Wert zugeschrieben. Dieser gibt die Größe der Gruppierung und die Granularität an [68; S. 383].

11 Erläuterung zum Aufbau und der Funktionsweise eines Neurons: Grundsätzlich besteht ein Neuron aus Dendriten, dem Zellkern und das Axon. Bei der Informationsaufnahme werden über Dendriten eingehende Signale aufgenommen und an den Zellkern weitergeleitet. Dort werden Energiepotenziale aufgebaut, bis ein bestimmter Schwellenwert erreicht ist. Nach Erreichung dieses Schwellenwerts wird das Energiepotenzial wieder abgebaut und Energie wird über das Axon an das Nachbarneuron abgegeben. Dieser nimmt wieder über Dendriten das Signal auf und der Prozess wiederholt sich mit allen weiteren Nachbarneuronen [61; S. 185].

12 Unter [100] sind einige Typen von Netzwerkarchitekturen zu finden, mit kurzen Erläuterungen, wofür sie verwendet werden.

Ende der Leseprobe aus 88 Seiten

Details

Titel
Reifegrad und Potenzial der Nutzung von Künstlicher Intelligenz (KI) in der Medizintechnik
Untertitel
Perspektiven der Anwendung für klinische Prozesse
Hochschule
Beuth Hochschule für Technik Berlin  (Berliner Hochschule für Technik)
Note
1,7
Autor
Jahr
2022
Seiten
88
Katalognummer
V1217165
ISBN (eBook)
9783346646354
Sprache
Deutsch
Schlagworte
Künstliche Intelligenz, Medizintechnik, Reifegrad KI, AI, Artificial Intelligence
Arbeit zitieren
Seyma Ceylan (Autor:in), 2022, Reifegrad und Potenzial der Nutzung von Künstlicher Intelligenz (KI) in der Medizintechnik, München, GRIN Verlag, https://www.grin.com/document/1217165

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Reifegrad und Potenzial der Nutzung von Künstlicher Intelligenz (KI) in der Medizintechnik



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden