Die vorliegende Bachelorarbeit untersucht die Leistungsfähigkeit der "Stochastic Gradient Line Bayesian Optimization" (SGLBO) aus der Publikation von Tamiya und Yamasaki (2022), im Kontext der Parameteroptimierung für "Quantum Neural Networks" (QNN) und vergleicht diese mit der "Adaptive Moment Estimation" (Adam). Die Ergebnisse zeigen, dass beide Algorithmen in der Lage sind, QNNs zu trainieren. Dabei zeigt Adam vor allem Stärken in der rauschfreien Optimierung, während SGLBO signifikant bessere Ergebnisse in verrauschten Umgebungen erzielt. Damit konnten die Ergebnisse aus der Publikation von Tamiya und Yamasaki (2022) reproduziert werden.
Inhaltsverzeichnis
- 1. Einleitung
- 2. Theoretischer Hintergrund
- 2.1. Einführung in Quantencomputing
- 2.1.1. Bits und Qubits
- 2.1.2. Superposition, Verschränkung und Messen von Quantenzuständen
- 2.1.3. Quantengatter
- 2.2. Noisy Intermediate-Scale Quantum Computing
- 2.2.1. Überblick über NISQ
- 2.2.2. Eigenschaften und Herausforderungen
- 2.3. Variational Quantum Algorithms
- 2.3.1. Aufbau und Funktionsweise
- 2.3.2. Anwendungsgebiete und Forschungsschwerpunkte
- 2.4. Quantum Neural Networks
- 2.4.1. Motivation für Quantum Neural Networks
- 2.4.2. Die Rolle von Parameterized Quantum Circuits
- 2.4.3. Funktionsweise
- 3. Optimierungsalgorithmen und Implementierung
- 3.1. Optimierungsalgorithmen
- 3.1.1. Stochastic Gradient Descent
- 3.1.2. Bayesian Optimization
- 3.1.3. Stochastic Gradient Line Bayesian Optimization
- 3.1.4. Adaptive Moment Estimation
- 3.2. Implementierung
- 3.2.1. sQUlearn
- 3.2.2. Implementierung der Stochastic Gradient Line Bayesian Optimization
- 3.2.3. Training von Quantum Neural Networks mit sQUlearn
- 4. Benchmark
- 4.1. Regression für eindimensionale Funktionen
- 4.1.1. Verwendetes Encoding Circuit
- 4.1.2. Vorhergesagte Funktionen
- 4.1.3. Ergebnisse
- 4.2. Regression für Modell mit schrittweiser Erhöhung der Parameter
- 4.2.1. Verwendetes Encoding Circuit
- 4.2.2. Regressionsfunktion
- 4.2.3. Ergebnisse
- 4.3. Regressionen mit Rauschen
- 4.3.1. Ergebnisse
- Leistungsfähigkeit von SGLBO und Adam bei der Parameteroptimierung von QNNs
- Vergleich der Algorithmen in rauschfreien und verrauschten Umgebungen
- Reproduktion der Ergebnisse aus der Publikation von Tamiya und Yamasaki (2022)
- Analyse der Stärken und Schwächen beider Algorithmen
- Beitrag zur Weiterentwicklung von Optimierungsmethoden für QNNs
- Kapitel 1: Einleitung: Dieses Kapitel führt in die Thematik der Arbeit ein und stellt die Motivation sowie die Forschungsfragen vor.
- Kapitel 2: Theoretischer Hintergrund: Dieses Kapitel beleuchtet die relevanten theoretischen Grundlagen, einschließlich einer Einführung in Quantencomputing, NISQ-Computing, Variational Quantum Algorithms und Quantum Neural Networks.
- Kapitel 3: Optimierungsalgorithmen und Implementierung: Dieses Kapitel erläutert die verschiedenen Optimierungsalgorithmen, die in der Arbeit verwendet werden, insbesondere SGLBO und Adam. Es beschreibt auch die Implementierung der Algorithmen und die verwendete Software (sQUlearn).
- Kapitel 4: Benchmark: Dieses Kapitel präsentiert die Ergebnisse der Benchmark-Studien, die durchgeführt wurden, um die Leistung von SGLBO und Adam zu vergleichen. Es werden verschiedene Szenarien mit unterschiedlichen Schwierigkeitsgraden und Rauschbedingungen betrachtet.
Zielsetzung und Themenschwerpunkte
Die vorliegende Bachelorarbeit untersucht die Wirksamkeit der Stochastic Gradient Line Bayesian Optimization (SGLBO) im Kontext der Parameteroptimierung für Quantum Neural Networks (QNN). Sie vergleicht SGLBO mit der Adaptive Moment Estimation (Adam) und analysiert die jeweilige Leistungsfähigkeit in rauschfreien und verrauschten Umgebungen.
Zusammenfassung der Kapitel
Schlüsselwörter
Quantum Neural Networks, Stochastic Gradient Line Bayesian Optimization, Adaptive Moment Estimation, Parameteroptimierung, NISQ, Variational Quantum Algorithms, sQUlearn, Benchmark, Regression, Rauschen, Quantencomputing
- Arbeit zitieren
- Dennis Kleinahns (Autor:in), 2024, Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization, München, GRIN Verlag, https://www.grin.com/document/1445609