Ethische Aspekte der KI in der Pflege


Seminararbeit, 2021

28 Seiten


Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

Abkürzungsverzeichnis

1 Einleitung

2 Einblick in Künstliche Intelligenz
2.1 Definition und Eigenschaften von Künstlicher Intelligenz
2.2 Leistungsbestandteile der Künstlichen Intelligenz
2.3 Einsatzbereiche von Künstlicher Intelligenz

3 Ethische Konflikte bei Maschinellen Lernen-Verfahren
3.1 Risiko der Schädigung von Menschen
3.2 Autonomie und Verantwortung
3.3 Datennutzen und Privatsphäre
3.4 Diskriminierung
3.5 Transparenz und Erklärbarkeit

4 Ethische Richtlinien bei der Einführung von KI
4.1 Schadensvermeidung
4.2 Achtung der menschlichen Autonomie
4.3 Datenschutz und Privatsphäre
4.4 Gerechtigkeit und Fairness
4.5 Transparenz und Erklärbarkeit

5 Fazit und Reflektion

Literaturverzeichnis

Gender-Erklärung

Aus Gründen der besseren Lesbarkeit wird in der vorliegenden wissenschaftlichen Arbeit die Sprachform des generischen Maskulinums angewandt. Es wird an dieser Stelle da­rauf hingewiesen, dass die ausschließliche Verwendung der männlichen Form ge­schlechtsunabhängig verstanden werden soll.

Abbildungsverzeichnis

Abbildung 1: Leistungsbestandteile der Künstlichen Intelligenz (Kreutzer und Sirrenberg 2019, S. 4)

Abbildung 2: Care-O-bot (Graf 2011, S. 3)

Abbildung 3: Moral Maschine Experiment (Anderson, Anderson, & Armen, 2005, S. 3) 7 Abbildung 4: Die Leitlinien als Rahmen für eine vertrauenswürdige KI (HEG-KI 2019, S.10)

Abkürzungsverzeichnis

AM Artificial Morality

BMJV Bundesministerium der Justiz und für Verbraucherschutz

BMVI Bundesministeriums für Verkehr und Digitale Infrastruktur

bzw. beziehungsweise

d.h. das heißt

DSGVO Datenschutz-Grundverordnung

HEG Hochrangige Expertengruppe

KI Künstliche Intelligenz

KNN Künstlichen neuronalen Netzen

1 Einleitung

Künstliche Intelligenz ist zwar noch ein verhältnismäßig neues Forschungsfeld, jedoch haben KI-basierte Systeme mittlerweile in vielen Lebensbereichen Einzug in unseren Alltag erhalten. Oftmals nutzen wir bereits diese disruptive Technologie, ohne dass wir es wirklich mitbekommen. „Denken Sie nur an digitale persönliche Assistenten wie Alexa, Google Home oder Siri, die Ihnen per Spracheingabe das gewünschte Musikstück von Spotify abspielen, Einkaufslisten erstellen oder sogar Einkäufe initiieren, Termine für Sie vereinbaren, Begriffe für Sie erklären oder ggf. die komplette Steuerung Ihres Smart Homes übernehmen.“ (Kreutzer und Sirrenberg 2019, S. 1).

Ein Großteil der Bevölkerung nutzt bereits die Vorzüge der KI-Systeme, ohne sich dar­über Gedanken zu machen, wie die technischen Hintergründe aussehen und wieviel die KI von jeder einzelnen Person eigentlich weiß (Fritz et al. 2019, S. 1). Insbesondere die Verwendung von personenbezogenen Daten stellt ein Risiko dar, vor allem wenn zu­künftig die KI-Systeme weiteren Entscheidungsspielraum erhalten sollten (Schmitz 2020, S. 366).

Wenn also die Komplexität und „Autonomie“ der KI steigt, sie fortlaufend in immer mehr Lebensbereichen genutzt wird und Entscheidungen teilweise selbst tritt, wirft das einige ethische Fragen auf. Je mehr die Weiterentwicklung Lernender Systeme voranschreitet, insbesondere das Deep Learning, umso schwieriger wird es perspektivisch Entschei­dungen vorherzusehen und anschließend beweisbar und erklärbar darzulegen (Beck 2020, S. 1-2). Wer ist also verantwortlich, wenn die KI einen Fehler begeht, Schaden zufügt oder diskriminierende Entscheidungen trifft? Ist die Nutzung KI-basierter Maschi­nen überhaupt ethisch vertretbar, wenn Fehler nicht gänzlich ausgeschlossen werden können?

Ziel dieser Arbeit ist es, die ethischen Herausforderungen bei der Einführung von Künst­licher Intelligenz zu betrachten und das Dilemma zwischen individueller Freiheit, Daten­schutz und Nutzen zu analysieren, sowie Vorschläge zu ethischen Leitlinien und die da­mit verbundenen Schwierigkeiten darzustellen. Zuerst wird ein Überblick zu den theore­tischen Grundlagen von KI geschaffen, indem die Eigenschaften, Leistungsbestandteile und Anwendungsmöglichkeiten abgebildet werden. Anschließend werden die einzelnen ethischen Herausforderungen diskutiert, die als Grundlage dienen, um im Zuge der Aus­wertung des EU Ethikkodex Leitlinien für die Einführung von KI unter Berücksichtigung des ethischen Rahmens zu schaffen. Anzumerken ist, dass im Fokus dieser Arbeit die ethischen Konflikte sogenannter „schwacher“ KI steht. Die Risiken Künstlicher „Superin­telligenz“ werden nicht berücksichtigt, da sich aufgrund des Entwicklungsstandes über deren Grenzen noch keine verlässlichen Aussagen treffen lassen.

2 Einblick in Künstliche Intelligenz

Künstliche Intelligenz bietet ein äußerst disruptives Potential und wird in den nächsten Jahren in immer mehr Bereichen zu tiefgreifenden Veränderungen führen und fortlau­fend Aufgaben übernehmen (Fritz et al. 2019, S. III). Die Grenzen der Algorithmen und Möglichkeiten werden kontinuierlich erweitert, dass zeigt auch ein Blick in die Vergan­genheit, denn vor 20 Jahren wäre ein mittlerweile normales Phänomen wie das auto­nome Auto noch schwer denkbar gewesen (Kreutzer und Sirrenberg 2019, S. 3). Vor diesem Hintergrund erfolgt in folgendem Kapitel eine Begriffserklärung der KI und deren Eigenschaften, sowie ein Einblick in die Einsatzbereiche.

2.1 Definition und Eigenschaften von Künstlicher Intelligenz

Bevor eine Definition von Künstlicher Intelligenz erfolgt, sollte zuerst ein Blick auf den Begriff „Intelligenz“ geworfen werden, denn bereits da beginnt die Herausforderung. Per- leth (2008, S. 15) definiert Intelligenz als „allgemeine Fähigkeit zum Denken oder Prob­lemlösung in Situationen, die für das Individuum neuartig, d. h. nicht durch Lernerfahrung vertraut sind, sodass keine automatisierten Handlungsroutinen zur Problemlösung ein­gesetzt werden können“. In den meisten Definitionen steht Intelligenz im Zusammen­hang mit menschlichem Denken und Handeln. Dahingehend kritisiert Mainzer (2019, S.2), dass der Mensch allein als Richtlinie für Intelligenz nicht ausreicht, denn auch bei anderen Organismen spricht man von unterschiedlichen Graden der „Intelligenz“.

Da eine einheitliche Definition von Intelligenz nicht vorhanden ist und sich die Auffassung auch abhängig vom Wissensstand der Technik entwickelt, gibt es auch unterschiedliche Begriffsbestimmungen zu KI. Laut Kirste und Schürholz (2019, S. 21) ist KI „traditionell ein Teilgebiet der Informatik, das sich mit der Automatisierung von intelligentem Verhal­ten befasst.“ Fritz et al. (2019, S. 5) gehen in ihrer Definition noch einen Schritt weiter und beziehen neben der Informatik auch die Disziplinen Biologie, Psychologie, Linguis­tik, Mathematik und den Ingenieurwissenschaften in die Definition mit ein.

Ein zentraler Aspekt der KI ist die Entwicklung von Computerfunktionen, die kognitive Fähigkeiten wie Denken, Lernen, Planen oder Problemlösen verwirklichen und im Allge­meinen eine Art menschliche Intelligenz voraussetzt. „Ziel der Forschung ist es, moderne KI-Systeme wie Maschinen, Roboter und Softwaresysteme zu befähigen, abstrakte Auf­gaben und Probleme auch unter veränderlichen Bedingungen eigenständig zu bearbei­ten und zu lösen, sodass der Mensch nicht jeden einzelnen Schritt programmieren muss.“ (Beck et al. 2019, S. 7).

Wie Entwicklung von KI geht mit gewissen Voraussetzungen beziehungsweise Eigen­schaften einher. Für das Training der Programme wird eine umfangreiche Datenmenge („Big Data“) benötigt und damit eine starke Rechenleistung und hochentwickelte Algo- rithmen(Schmitz 2020, S. 367; Beck 2020, S. 4). Außerdem werden KI Systeme oft über Plattformen miteinander vernetzt, sodass sie sich nicht isoliert, sondern kumulativ wei­terentwickeln. Das geht allerdings auch mit einer wachsenden Unvorhersehbarkeit und geringen Überprüfbarkeit einher (Gausling 2019, S. 337).

Des Weiteren erfolgt in Bezug auf den Entwicklungs-und Leistungsgrad der KI eine Ein­teilung in „schwache“ und „starke“ KI. Bei „starker“ KI wird von einer „Übersteigerung“ der menschlichen Fähigkeiten in verschiedenen Bereichen des Alltags gesprochen. Da­bei werden auch eigenständig Probleme gesucht und dann systematisch (neue) Lö­sungsansätze erörtert (Hasenbein 2020, S. 189; Kreutzer und Sirrenberg 2019, S. 20). Bei der „schwachen“ KI geht es um die Lösung von klar definierten Einzelaufgaben im beschränkten Kontext (zum Beispiel Sprach- oder Bilderkennung)und repräsentiert die aktuell technisch umsetzbaren KI-Systeme (Beck et al. 2019, S. 7; Hasenbein 2020, S. 189).

Im Folgenden wird sich an der Definition von Beck et al.(2019)in Bezug auf KI orientiert, da diese im Zusammenhang mit der menschlichen Intelligenz steht und die Bewertung von Ethik und Moral in diese Arbeit auf menschlichen Standards basiert.

2.2 Leistungsbestandteile der Künstlichen Intelligenz

Die Leistungsbestandteile der Künstlichen Intelligenzkönnen in verschiedene Elemente eingeteilt werden (Abbildung 1), wobei das zentralste die sogenannten neuronalen Netze sind, die ursprünglich aus den Neuro-Wissenschaften stammen. „Dort bezeichnet ein neuronales Netz die Verbindung zwischen Neuronen, die als Teil des Nervensystems bestimmte Funktionen ausüben.“ (Kreutzer und Sirrenberg 2019, S. 4). Im Zuge der KI wird nun versucht, diese neuronalen Netze nachzubilden.

Abbildung in dieser Leseprobe nicht enthalten

Maschinelles Lernen ist ein Teilgebiet und gleichzeitig eine Schlüsseltechnologie der KI. Es beinhaltet verschiedene Konzepte und Methoden mit dem Ziel, automatisiert Korre­lationen aufzufinden und dabei den menschlichen Lernprozess in gewisser Weise nach­zubilden. Anhand von einer großen Menge Beispieldaten entwickeln Maschinen Regeln, die es ihnen ermöglichen, aus Erfahrungen zu lernen und auf neue, unbekannte Situati­onen und Aufgaben anzuwenden. Maschinelles Lernen wird dabei häufig zur Erstellung von Vorhersagen oder Schätzungen von Ergebnissen genutzt (Bülchmann 2020, S. 208; Kirste und Schürholz 2019, S. 24; Beck et al. 2019, S. 10).

Derzeit geht der KI-Boom mit dem tiefen Lernen mit Künstlichen Neuronalen Netzen (KNN) einher. Es handelt sich um das Lernen mit Algorithmen, basierend auf der Nach­bildung der Netzstrukturen von Nervenzellen. In Bezug auf das Deep Learning bedeutet „tief“, dass es einige bis viele Schichten tief ist, losgelöst von der exakten Netzstruktur (Kirste und Schürholz 2019, S. 29). „Es handelt sich hierbei um Knotenschichten (soge­nannte Neuronen), die durch eine Software realisiert und numerisch gewichtet miteinan­der verbunden sind. Je komplexer das Netz (gemessen an der Anzahl der Schichten, der Verbindungen zwischen Neuronen sowie der Neuronen pro Schicht), desto komple­xere Sachverhalte können verarbeitet werden.“ (Beck et al. 2019, S. 15).

Das menschliche Gehirn ist zu Kognition, Emotion und Bewusstsein fähig und ist für die Wissenschaft von besonderem Interesse. Im Rahmen der Weiterentwicklung der KI wird versucht, diese Prozesse zu erlernen und dann nachzubilden, da man bisher ausschlich bei biologischen Organismen wie Menschen und Tieren von emotionaler Intelligenz spricht. Die Nachbildung dieses Gesamtkonzeptes stellt somit für die Forschung ein zentrales Ziel dar. Roboter können durch Sensoren bereits zum Teil Emotionen erken­nen, diese natürlich aber nicht erleben. Um das Handeln der KI auf die wahrgenomme­nen Emotionen abzustimmen wird von der Ausstattung mit emotionaler Intelligenz ge­sprochen, was jedoch einige ethischen Fragen aufwirft (Mainzer 2019, S. 125-127).

2.3 Einsatzbereiche von Künstlicher Intelligenz

KI hat sich in den letzten Jahren rasant entwickelt, was nicht zuletzt auch damit zusam­menhängt, dass es eine Allzwecktechnologie darstellt, die in nahezu allen Wirtschafts­zweigen eingesetzt werden kann. Somit wird es zukünftig direkt oder indirekt alle Men­schen betreffen, denn bereits heute hat KI einen starken Einfluss auf unseren Alltag und das Arbeitsumfeld. Sie verändert die Mobilität durch selbstfahrende Fahrzeuge, den Be­reich Logistik im Zuge des Onlinehandels und die Art der Kommunikation durch Chatbots (Schmitz 2020, S. 367). Ferner kommt KI auch stark im Militär und der Kriegsführung zum Einsatz, in den Banken bei der Kreditvergabe, bei der Auswahl geeigneter Bewer­ber für Jobs, in der Werbeindustrie und Medizintechnik (Hasenbein 2020, S. 186). Im Folgenden wird amBeispielder Medizindas breite Potential von KIdargelegt, aber auch die damit verbundenen Risiken und ethischen Fragen.

Einfache Tätigkeiten, die bereits heute häufig von KI-basierten Maschinen übernommen werden sind der Transport von Essen oder anderen Gegenständen und die Unterstüt­zung bei der Reinigung (Graf 2011, S. 1-2). Durch die Fortschritte im Deep Learning werden auch vermehrt Diagnose-und Behandlungsvorschläge von der KI erteilt, insbe­sondere in der Radiologie. Das System kann dabei unendlich viele Röntgenbilder ver­gleichen und bei der Diagnose des Patienten mitwirken (Müschenich und Wamprecht 2018, S. 334).

Des Weiteren kommen Maschinen zum Einsatz, die die Körperfunktionen des Menschen überwachen und einen Alarm auslösen, wenn sich die Werte verschlechtern oder eine Fehlfunktion auftritt. Perspektivischwird das Monitoring noch durch die direkte Behand­lung der Maschine erweitert. So könnte diese etwa beim Auftreten von starken Schmer­zen eigenständig ein entsprechend dosiertes Medikament über die Infusion verabrei­chen (Katzenmeier 2019,S.264).

Auch Roboter werden in Zukunft im direkten Kontakt mit Patienten eingesetzt, zum Bei­spiel durch den Reha-Assistent „Roreas“ beim Lauftraining von Schlaganfall-Patienten (Beck 2020, S. 16)oder beim Umbetten undder Mobilisierung von Patienten (Graf 2011, S. 2-3).Fernen könnten Roboter bereits durch gespeicherte Patientendaten eigenstän­dige Handlungen vornehmen. Der Roboterassistent „Care-O-bot“ ist mit Hilfe einer Be­wohnerdatenbank in der Lage, einzelne Bewohner zu identifizieren und bietet denjeni­gen ein Getränk an, die noch nicht genug getrunken haben, um Dehydration zu vermei- den(Graf 2011, S. 3).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Care-O-bot (Graf 2011, S. 3)

3 Ethische Konflikte bei Maschinellen Lernen-Verfahren

Wie am Beispiel des Einsatzes von KI-gesteuerten Maschinen in der Pflege und Medizin zu sehen ist, gibt es einige Aspekte, die ethische Fragen aufwerfen. Die Algorithmen nutzen personenbezogene Daten und verändern die gesellschaftlichen Strukturen, so­wie die Kommunikation und Interaktion der Menschen. „Und dieser Einfluss wird insbe­sondere dann deutlich wachsen, wenn der Schritt von der jetzigen schwachen KI (durch den Menschen vorgegebene bzw. programmierte Algorithmen) hin zu einer starken KI (die sich selbst gestaltet bzw. fortentwickelt [...]) gegangen wird.“ (Stubbe et al. 2019, S. 239).

Bevor eine detaillierte Betrachtung der ethischen Fragen beim Einsatz von KI erfolgt, sollte an dieser Stelle ein Blick auf die Definition von Ethik und Moral geworfen werden. Moral stammt von dem lateinischen Wort „mores“ und bedeutet Sitte. Sie beinhaltet die von der Gesellschaft als richtig erachteten Handlungen und beschreibt die Sitten, Grundsätze und Werte, die das Verhalten steuern und als gesellschaftlich „gut“ gelten (Lempp 2013, S. 6-8; Hasenbein 2020, S. 184).

Ethik hingegen ist die Philosophie des sittlichen Verhaltens von Menschen und basiert auf der Moral, die von der Gesellschaft bestimmt wird. Somit können beide nie losgelöst voneinander betrachtet werden. „Im Ergebnis dieser jeweiligen Analysen von menschli­chen Handlungen liegen Argumente für bzw. gegen ein bestimmtes Verhalten vor. Wei­terhin unterstützt die Ethik dabei, herauszufinden, was richtiges moralisches Handeln und Urteilen ist.“ (Bülchmann 2020, S. 209).

In Bezug auf die Nutzung von KI stellt sich also die Frage, welche unerwünschte Aspekte diese mit sich bringen könnte. Umso komplexer und vernetzter die Einsatzgebiete wer­den, desto anspruchsvoller gestalten sich auch die ethischen Entscheidungen, die von dem System zu treffen sind. Mittlerweile wird auch von „Artificial Morality“ (AM) oder im Deutschen „Maschinenethik“ gesprochen (Hasenbein 2020, S. 187). Die potentiellen Ri­siken, die von dem Einsatz der KI ausgehen reichen von Schädigungen am Menschen, wie zum Beispiel durch Unfälle mit autonomen Autos, über diskriminierende Entschei­dungen, hin zu Eingriffen in die Privatsphäre (Beck 2020, S. 2).

Diese Herausforderungen haben zum einen eine strafrechtliche Ebene, insbesondere in Bezug auf die Frage der Verantwortung und Haftung, aber vor allem auch ethische und moralische Implikationen. An dieser Stelle soll der Fokus auf die ethischen Fragen gelegt werden, weswegen die rechtliche Komponente nicht mit aufgeführt wird. Die Nachfol­genden Aspekte wurden im Zuge der Recherche in thematisch übergeordnete Katego­rien eingeteilt, um einen besseren Überblick zu erhalten.

3.1 Risiko der Schädigung von Menschen

Im Rahmen der Weiterentwicklung von KI besteht grundsätzlich das Risiko, dass KI- gesteuerte Roboter und Maschinen zu Schädigung von Menschen führen. Um das The­mengebiet der Medizintechnik wieder aufzugreifen könnten Fehlentscheidungen von Di­agnosesystemen zu einer falschen Diagnose und anschließenden Behandlung führen oder eine fehlerhafte Dosierung von Medikamenten verheerende Folgen haben (Katzen­meier 2019, S. 265).

Ein weiteres häufig aufgeführtes Beispiel, welches das ethische Dilemma klar wieder­spiegelt ist die „gezwungene Wahl“ eines autonomen Fahrzeugs, dass entscheiden muss, wen es in einer kritischen Unfallsituation anfährt. In diesem Zusammenhang wurde vom MIT Media Lab das Moral Maschine Experiment durchgeführt. Im Rahmen der Studie wurde untersucht, wie Menschen aus verschiedenen Weltregionen in besag­ter Situation entscheiden würden, um als Diskussionsgrundlage zu dienen, nach wel­chen gesellschaftlichen Erwartungen selbstfahrende Autos programmiert werden sollen. Dabei steht vor allem die Frage nach der (ethischen) Verantwortung im Raum (Awad et al. 2018, S. 1).

Das Experiment liegt dabei der ethischen Theorie des Utilitarismus zugrunde, der be­sagt, dass ethische Probleme so gelöst werden sollten, indem man Entscheidungen im Sinne des größtmöglichen Glücks für die maximale Zahl von Menschen trifft. Dafür wer­den die Vorteile aus der Entscheidung den Nachteilen gewichtet gegenüberstellt. Im Sinne des Experiments müssten also „ethische“ Algorithmen so entscheiden, dass die Gesamtzahl der Vorteile überwiegen (Anderson, Anderson, & Armen, 2005, S. 2-3).

What should the self-driving car do?

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Moral Maschine Experiment (Anderson, Anderson, & Armen, 2005, S. 3)

3.2 Autonomie und Verantwortung

Wie bereits im vorherigen Kapitel angeschnitten wurde, stellt die Verantwortung eine besondere Herausforderung dar. Mal abgesehen von der rechtlichen Komponente wird auch die ethische Verantwortung problematischen werden, wenn die „Autonomie“ und Vernetzung der KI steigt (Neuhäuser 2012, S. 24). Da Verantwortlichkeit in gewisser Weise eine Vorhersehbarkeit und Vermeidbarkeit eines Schadens vorrausetzt, könnte es nahezu unmöglich werden Programmierer oder beteiligte Personen im Falle eines Fehlverhaltens der KI „haftbar“ zu machen. Im Zuge der teilweise geringen Transparenz, die in einem separaten Kapitel behandelt wird, wird es auch immer schwieriger werden die Fehler nachzuweisen (Schuster 2019, S. 11).

Am Beispiel des Unfalls des autonomen Fahrzeugs lässt sich der Konflikt gut erklären, denn die Maschine ist in der Hinsicht keine (juristische) „Person“ und es bleibt zu klären, wer letztlich verantwortlich ist. Der Programmierer hat womöglich nur den anfänglichen Algorithmus der Software geschrieben und diese hat sich dann anschließend selbstler­nend weiterentwickelt (Stubbe et al. 2019, S. 240). Wer trägt also die moralische Ver­antwortung im Schadensfall? Es gilt also nicht nur zu klären, “wer Entscheider und wer verantwortlich ist, sondern auch darum, wer im Zusammenspiel Mensch-Maschine die Kontrolle behält und wie der Mensch einen eigenen Willen aufrechterhalten und schluss­endlich auch durchsetzen kann.“ (Stubbe et al. 2019, S. 243).

Auch in der Medizintechnik ist dieses ethische Dilemma von immenser Relevanz. Die KI-gestützten Roboter und Maschinen sollten zwar den Arzt und das Personal von Rou­tinetätigkeit entlasten und unterstützten, diese jedoch nicht ersetzten. „Nur der Arzt könne die sozialen, psychologischen und persönlichen Rahmenbedingungen in die Be­handlung miteinbeziehen, einzig er sei zu der - im Umgang mit dem Kranken so wichti­gen - Empathie fähig.“ (Katzenmeier 2019, S. 269). Maschinen können zwar statistische Erkenntnisse auswerten, haben jedoch nicht die Fähigkeit zu verstehen, was es bedeu­tet sterblich zu sein und Gefühle zu haben. Dieser Aspekt ist bei der Betrachtung der konkreten Geschichte des Patienten und der anschließenden Behandlungsentscheidung jedoch von Bedeutung (Beck 2020, S. 14). Inwiefern die fehlende Empathie vielleicht auch Vorteile mit sich bringt wird im Kapitel 3.4 behandelt.

Die Weiterentwicklung von KI und der Einsatz in immer mehr Lebensbereichen wird auch die bestehenden gesellschaftlichen Strukturen verändern. Die von der Bevölkerung be­fürchtete fehlende „Menschlichkeit“ der Maschinen und „Enthumanisierung“ im Zuge des steigenden Einsatzes von Robotern kann sich außerdem negativ auswirken. Die noch etwas futuristische Vorstellung, dass KI-Maschinen zu „Lebenspartnern“ werden ist in manchen Bereichen gar nicht mehr so abwegig. Dies gilt vor allem im Einsatz in der Pflege, mit älteren oder dementen Personen (Martini und Botta 2018, S. 631; Beck 2020, S.14).

[...]

Ende der Leseprobe aus 28 Seiten

Details

Titel
Ethische Aspekte der KI in der Pflege
Hochschule
Hochschule für angewandtes Management GmbH
Autor
Jahr
2021
Seiten
28
Katalognummer
V1217720
ISBN (Buch)
9783346638618
Sprache
Deutsch
Schlagworte
ethische, aspekte, pflege
Arbeit zitieren
Miriam Mueller (Autor:in), 2021, Ethische Aspekte der KI in der Pflege, München, GRIN Verlag, https://www.grin.com/document/1217720

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Ethische Aspekte der KI in der Pflege



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden