Die Defense Advanced Research Projects Agency (DARPA) des Verteidigungsministeriums der Vereinigten Staaten von Amerika rief 2016 das Explainable Artificial Intelligence (XAI)-Programm ins Leben, mit dem Fokus, Techniken maschinellen Lernens zu entwickeln, die erstens erklärbare Modelle bei gleichbleibend hoher Lernfähigkeit erzeugen und zweitens den Menschen befähigen, AI-Systeme zu verstehen, ihnen angemessen zu vertrauen und die nächste Generation intelligenter Systeme kontrollieren zu können. Denn nur, wenn wir Menschen verstehen, wie KI-Systeme zu Entscheidungen gelangen, haben wir die Möglichkeit, sie mehrwertbringend in industriellen Prozessen anzuwenden und positiv in das tägliche Leben unserer Gesellschaft zu integrieren. Zielvorgabe der vorliegenden Arbeit ist die Darstellung und Analyse zweier Methoden, namentlich der Sensitivity Analysis (SA) und der Layerwise Relevance Propagation (LRP), deren eigene Zielsetzung es ist, die Entscheidungen intelligenter Systeme für den menschlichen Betrachter nachvollziehbar zu machen. Bevor jedoch auf die einzelnen Methoden, deren Funktionsweise und auf eine kritischen Betrachtung eingegangen werden kann, bedarf es einer Abgrenzung des Forschungsgebiets der XAI.
Artificial Intelligence (AI) – ein populärer Begriff aktueller Zeit, der mit einer Vielzahl an technologischen Anwendungen in Verbindung gebracht wird. Manchmal prominent und tangibel in Form von menschenähnlichen Robotern, wieder andere Male subtil, weder sichtbar noch greifbar in Form von Algorithmen. Dabei ist die konzeptionelle Idee der Abbildung künstlicher Intelligenz durch Computersysteme keine neue Errungenschaft, sondern geht bis auf die Erkenntnisse von Warren McCulloch und Walter Pitts im Jahr 1943 zurück. McCulloch/Pitts (1943) offerierten ein Modell, das in Anlehnung an das biologische Vorbild künstliche Neuronen an- bzw. ausschaltet, je nach Stimulus durch benachbarte Neuronen. Dabei wird impliziert, dass durch ein Netzwerk künstlicher Neuronen ebenfalls die Möglichkeit der Lernfähigkeit bestünde.
Inhaltsverzeichnis
- Abkürzungsverzeichnis in alphabetischer Ordnung.
- Aritificial Intelligence – ein Black Box System?
- Explainable Artificial Intelligence
- Künstliche Intelligenz
- Abgrenzung und Begriffsdefinition
- Deep Learning und künstliche neuronale Netzwerke.
- Methoden von Explainable Artificial Intelligence
- Sensitivity Analysis ......
- Layerwise Relevance Propagation .......
- Quantitative Evaluation und Vergleich beider Methoden.....
- Kritische Betrachtung und Fazit
- Quellenangaben.
- Literaturverzeichnis.........
- Abbildungsverzeichnis.
- Gleichungsverzeichnis......
- Anhang.
Zielsetzung und Themenschwerpunkte
Die vorliegende Arbeit beschäftigt sich mit dem Thema Explainable Artificial Intelligence (XAI) und analysiert zwei Methoden – die Sensitivity Analysis (SA) und die Layerwise Relevance Propagation (LRP) – die den Entscheidungsprozess intelligenter Systeme für den Menschen nachvollziehbar machen sollen. Der Fokus liegt dabei auf der Erläuterung der Funktionsweise der Methoden und einer kritischen Betrachtung ihrer Anwendung.
- Die Notwendigkeit von Transparenz in KI-Systemen
- Der Einsatz von XAI-Methoden zur Verbesserung der Nachvollziehbarkeit von KI-Entscheidungen
- Die Funktionsweise der Sensitivity Analysis und Layerwise Relevance Propagation
- Die kritische Bewertung der XAI-Methoden und ihrer Anwendung in der Praxis
- Die Rolle von XAI in der Gestaltung einer vertrauensvollen und verantwortungsvollen KI-Entwicklung
Zusammenfassung der Kapitel
- Kapitel 1: Aritificial Intelligence - ein Black Box System? Dieses Kapitel führt den Leser in die Thematik der Künstlichen Intelligenz (KI) ein und erläutert die Herausforderungen, die mit ihrer zunehmenden Anwendung im Alltag verbunden sind. Dabei wird der Begriff des "Black-Box-Verhaltens" eingeführt, das die Intransparenz und Undurchsichtigkeit von KI-Systemen beschreibt. Die Bedeutung von Transparenz für die Gestaltung einer vertrauensvollen KI-Anwendung wird hervorgehoben.
- Kapitel 2: Explainable Artificial Intelligence Dieses Kapitel beleuchtet das Konzept der Explainable Artificial Intelligence (XAI) als Mittel, um die Transparenz und Nachvollziehbarkeit von KI-Systemen zu erhöhen. Es wird die Bedeutung von XAI für die Entwicklung eines "Glassbox-Verhaltens" hervorgehoben, das den Entscheidungsprozess von KI-Systemen vollständig transparent macht.
- Kapitel 3: Künstliche Intelligenz Das Kapitel 3 bietet einen Überblick über die Definition und Abgrenzung des Begriffs "Künstliche Intelligenz" und erläutert das Konzept des Deep Learning und die Funktionsweise künstlicher neuronaler Netzwerke.
- Kapitel 4: Methoden von Explainable Artificial Intelligence Dieses Kapitel stellt zwei Methoden von Explainable Artificial Intelligence vor, die Sensitivity Analysis (SA) und die Layerwise Relevance Propagation (LRP), und beschreibt ihre Funktionsweise im Detail. Es wird zudem ein Vergleich der beiden Methoden durchgeführt.
Schlüsselwörter
Künstliche Intelligenz (KI), Explainable Artificial Intelligence (XAI), Transparenz, Black-Box-Verhalten, Glassbox-Verhalten, Sensitivity Analysis (SA), Layerwise Relevance Propagation (LRP), Deep Learning, Neuronale Netzwerke, Machine Learning, Entscheidungsfindung, Algorithmen, Datenanalyse, Industrielle Anwendungen, Ethik, Verantwortung.
- Arbeit zitieren
- Enzo Muschik (Autor:in), 2020, Künstliche Intelligenz verstehen. Wie funktionieren die Methoden "Sensitivity Analysis" (SA) und "Layerwise Relevance Propagation" (LRP)?, München, GRIN Verlag, https://www.grin.com/document/888524