Die Arbeit untersucht, wie einer Künstlichen Intelligenz (KI) das Spielen von Computerspielen beigebracht werden kann, insbesondere durch den Einsatz von Reinforcement Learning. Dabei werden die theoretischen Grundlagen sowie die Anwendung auf Spiele wie Tic-Tac-Toe und ein selbst programmiertes Spiel beschrieben. Die KI lernt durch Belohnungen, in vordefinierten Zuständen optimale Aktionen auszuführen. Es traten Herausforderungen wie Overfitting und die Strukturierung der Zustände auf, die jedoch teilweise gelöst werden konnten. Insgesamt zeigt die Arbeit, dass es möglich ist, KI in Videospielen erfolgreich einzusetzen, wenn geeignete Ansätze zur Spielbeschreibung und Belohnungsstruktur gefunden werden.
Im Jahr 1997 schlug das Computerprogramm "Deep Blue" von IBM erstmals den damaligen Schachweltmeister Garri Kasparow in einer Partie Schach. Seitdem wird die Frage diskutiert, inwieweit Maschinen mit dem menschlichen Intellekt konkurrieren können und welches Potenzial die Künstliche Intelligenz bei Anwendungen in Computerspielen hat.
Gegenstand dieser Ausarbeitung ist die Untersuchung, inwiefern es möglich ist, einer Künstlichen Intelligenz das Spielen von Computerspielen beizubringen.
In der folgenden Arbeit werden zwei Videospiele vorgestellt, anhand derer die Möglichkeiten und Grenzen der KI aufgezeigt werden.
Während im zweiten Kapitel auf die Definition der Künstlichen Intelligenz sowie wichtige Grundlagen eingegangen wird, werden im dritten Kapitel die theoretischen Konzepte des "Deep Learning" sowie des "Reinforcement Learning" dargestellt. Anhand dieser Konzepte wird deutlich, wie eine künstliche Intelligenz auf mathematischer und algorithmischer Ebene arbeitet. Im anschließenden praktischen Teil (viertes Kapitel) soll untersucht werden, inwieweit sich die obigen theoretischen Konzepte auf ein Tic-Tac-Toe-Spiel und ein selbst programmiertes Spiel anwenden lassen.
Inhaltsverzeichnis
1. Einleitung
2. Grundlagen von Künstlicher Intelligenz
2.1 Grundfunktionsweise einer Künstlichen Intelligenz
2.1.1 Definition
2.1.2 Prädiktionen und deterministische Algorithmen
2.1.3 Training
2.2 Bestandteile einer Künstlichen Intelligenz
2.2.1 Das Abstufungsmodell
2.2.2 Arten von Machine Learning
3. Theoretischer Teil
3.1 Deep Learning
3.1.1 Grundaufbau eines neuronalen Netzes
3.1.2 Feedforward-Propagation
3.1.3 Backpropagation
3.2 Reinforcement Learning (RL)
3.2.1 Das Konzept von Reinforcement Learning
3.2.2 Reinforcement Learning als neuronales Netz
3.2.3 Epsilon Greedy Strategie
3.2.4 Deep Q Learning
3.2.5 Algorithmische Anwendung
4. Praktischer Teil
4.1 Anwendung von Reinforcement Learning auf das Tic-Tac-Toe-Spiel
4.1.1 Spielregeln des Tic-Tac-Toe-Spiels (TTT)
4.1.2 Kernidee, nach der einer KI Tic-Tac-Toe beigebracht wird
4.1.3 Der Aufbau des „Agent“ als neuronales Netz
4.1.4 Die Idee des Trainings und die Berechnung der Belohnungen
4.1.5 Internes Training des RL-„Agent“
4.1.6 Aufbau und Testen des Projekts
4.1.7 Training und Ergebnisse
4.2 Reinforcement Learning angewandt auf ein selbst programmiertes Spiel
4.2.1 Spielregeln
4.2.2 Kernidee, nach der einer KI ein selbst programmiertes Spiel beigebracht wird
4.2.3 Der Aufbau des „Agent“ als neuronales Netz
4.2.4 Die Vergabe der Rewards
4.2.5 Internes Training des RL-„Agent“
4.2.6 Aufbau und Testen des Projektes
4.2.7 Training und Ergebnisse
5. Schluss
5.1 Fazit und persönliche Würdigung
5.2 Ausblick
Zielsetzung & Themen
Ziel dieser Arbeit ist es, zu untersuchen, inwieweit KI-gestützte Systeme, insbesondere durch Verfahren des Reinforcement Learning, befähigt werden können, komplexe Aufgaben wie das Spielen von Videospielen eigenständig zu erlernen. Anhand eines Tic-Tac-Toe-Spiels sowie eines selbst implementierten Spiels wird die praktische Machbarkeit erprobt und die algorithmische Arbeitsweise analysiert.
- Grundlagen neuronaler Netze und Deep Learning
- Methodik des Reinforcement Learning
- Anwendung und Training einer KI für das Tic-Tac-Toe-Spiel
- Entwicklung und Implementierung eines KI-gesteuerten Spielprojekts ("Hydravion")
- Analyse von Trainingsergebnissen und Optimierungspotenzialen
Auszug aus dem Buch
3.1.2 Feedforward-Propagation
Im Folgenden soll auf den mathematischen Prozess des Vorhersagens („Feedforward-Propagation“) in einem NN genauer eingegangen werden.
Algorithmus von Feedforward-Propagation: Folgende Schritte sind bei der Feedforward-Propagation eines NN zu beachten: 1. Die Eingabewerte werden in den Z-Values der ersten Layer des neuronalen Netzwerks eingesetzt. 2. Die A-Values der Neuronen der ersten Layer werden durch die Z-Values dieser Neuronen berechnet. 3. Für jede nachfolgende Layer im Netzwerk werden nacheinander die Z- und A-Values der Neuronen ermittelt. Die Berechnung der Z- bzw. A-Values eines Neurons erfolgt durch seinen Bias, die Weights seiner Verbindungen mit der vorherigen Layer und mit den Activations der Neuronen dieser vorherigen Layer. 4. Die A-Values der Neuronen der letzten Layer repräsentieren die Ausgabe.
Berechnung der Z und A-Value eines Neurons: Die Berechnung der Z- bzw. A-Values eines Neurons erfolgt durch seinen Bias, die Weights seiner Verbindungen mit der vorherigen Layer und mit den Activations der Neuronen dieser vorherigen Layer. Die Z-Value eines Neurons wird berechnet, indem jede Weight seiner Verbindungen mit der vorherigen Layer mit der A-Value des Ursprungsneurons von dieser jeweiligen Verbindung multipliziert wird. Die resultierenden Produkte dieser Multiplikation werden anschließend summiert, und zu dieser Summe wird noch der Bias-Wert des Neurons addiert.
Zusammenfassung der Kapitel
1. Einleitung: Diese Einleitung führt in die historische Bedeutung der KI im Spielkontext ein und definiert das Forschungsziel der Untersuchung anhand von zwei Videospielbeispielen.
2. Grundlagen von Künstlicher Intelligenz: Die Grundlagen definieren KI als Funktion zur Simulation menschlicher Entscheidungsprozesse unter Einbeziehung von Machine Learning und systematisieren die verschiedenen Lernmodi.
3. Theoretischer Teil: Dieser Abschnitt erläutert die mathematische Architektur von Deep Learning und neuronalen Netzen sowie das spezifische Lernverfahren des Reinforcement Learning.
4. Praktischer Teil: Hier wird die praktische Implementierung einer KI für ein Tic-Tac-Toe-Spiel und ein selbst programmiertes Spiel unter Einsatz von Python und TensorFlow detailliert dargestellt.
5. Schluss: Der Schluss reflektiert die Ergebnisse, identifiziert Herausforderungen bei der Modellbildung und gibt einen Ausblick auf künftige Forschungsnotwendigkeiten.
Schlüsselwörter
Künstliche Intelligenz, Deep Learning, Reinforcement Learning, Neuronale Netze, Tic-Tac-Toe, Python, TensorFlow, Training, Backpropagation, Feedforward-Propagation, Algorithmus, Spielentwicklung, Belohnungssystem, Gradient Descent, Verlustfunktion
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit untersucht die theoretischen Grundlagen und die praktische Umsetzung der Künstlichen Intelligenz, um Agenten das erfolgreiche Spielen von Videospielen zu ermöglichen.
Was sind die zentralen Themenfelder?
Zentral sind Deep Learning, neuronale Netzwerkarchitekturen sowie spezielle Algorithmen des Reinforcement Learning zur datengestützten Optimierung von Spielstrategien.
Was ist das primäre Ziel der Arbeit?
Das primäre Ziel ist es, die Möglichkeiten und Grenzen einer KI aufzuzeigen, indem diese darauf trainiert wird, durch Belohnungen (Rewards) optimale Spielaktionen in zwei unterschiedlich komplexen Umgebungen zu definieren.
Welche wissenschaftliche Methode wird verwendet?
Die Arbeit nutzt die experimentelle Programmierung als Methode, wobei neuronale Netze in Python mittels der Bibliothek TensorFlow implementiert und durch Reinforcement Learning trainiert werden.
Was wird im Hauptteil behandelt?
Der Hauptteil gliedert sich in eine theoretische Herleitung der Funktionsweise von KIs (mathematische Propagation, Gradienten) und eine praktische Dokumentation des KI-Trainings zweier Spiele: Tic-Tac-Toe und ein selbst entwickeltes Flugspiel.
Welche Schlüsselbegriffe charakterisieren die Arbeit?
Wesentliche Begriffe sind Reinforcement Learning, Neuronale Netze, Training, Backpropagation, Belohnungsfunktion, Tic-Tac-Toe und autonomes Lernen.
Wie unterscheidet sich die KI-Umsetzung zwischen Tic-Tac-Toe und dem selbst entwickelten Spiel?
Während Tic-Tac-Toe auf einer abstrakten Zustandstabelle basiert, erfordert das selbst programmierte Spiel das Einbeziehen von normalisierten Koordinaten für Spielelemente und Hitbox-Kollisionslogik.
Welche spezifischen Probleme traten bei der Programmierung auf?
Autoren berichten insbesondere von "Overfitting", bei dem die KI beginnt, korrekte Spielzustände auswendig zu lernen statt mathematische Strategien zu entwickeln, was durch Limitierung der Trainingsdauer korrigiert wurde.
- Citar trabajo
- Elias Cuin (Autor), 2024, Inwiefern ist es möglich, einer KI das Spielen von Videospielen beizubringen? Eine Untersuchung anhand eines selbst entwickelten Videospiels, Múnich, GRIN Verlag, https://www.grin.com/document/1491513