Die vorliegende Bachelorarbeit untersucht die Leistungsfähigkeit der "Stochastic Gradient Line Bayesian Optimization" (SGLBO) aus der Publikation von Tamiya und Yamasaki (2022), im Kontext der Parameteroptimierung für "Quantum Neural Networks" (QNN) und vergleicht diese mit der "Adaptive Moment Estimation" (Adam). Die Ergebnisse zeigen, dass beide Algorithmen in der Lage sind, QNNs zu trainieren. Dabei zeigt Adam vor allem Stärken in der rauschfreien Optimierung, während SGLBO signifikant bessere Ergebnisse in verrauschten Umgebungen erzielt. Damit konnten die Ergebnisse aus der Publikation von Tamiya und Yamasaki (2022) reproduziert werden.
Inhaltsverzeichnis
1. Einleitung
2. Theoretischer Hintergrund
2.1. Einführung in Quantencomputing
2.1.1. Bits und Qubits
2.1.2. Superposition, Verschränkung und Messen von Quantenzuständen
2.1.3. Quantengatter
2.2. Noisy Intermediate-Scale Quantum Computing
2.2.1. Überblick über NISQ
2.2.2. Eigenschaften und Herausforderungen
2.3. Variational Quantum Algorithms
2.3.1. Aufbau und Funktionsweise
2.3.2. Anwendungsgebiete und Forschungsschwerpunkte
2.4. Quantum Neural Networks
2.4.1. Motivation für Quantum Neural Networks
2.4.2. Die Rolle von Parameterized Quantum Circuits
2.4.3. Funktionsweise
3. Optimierungsalgorithmen und Implementierung
3.1. Optimierungsalgorithmen
3.1.1. Stochastic Gradient Descent
3.1.2. Bayesian Optimization
3.1.3. Stochastic Gradient Line Bayesian Optimization
3.1.4. Adaptive Moment Estimation
3.2. Implementierung
3.2.1. sQUlearn
3.2.2. Implementierung der Stochastic Gradient Line Bayesian Optimization
3.2.3. Training von Quantum Neural Networks mit sQUlearn
4. Benchmark
4.1. Regression für eindimensionale Funktionen
4.1.1. Verwendetes Encoding Circuit
4.1.2. Vorhergesagte Funktionen
4.1.3. Ergebnisse
4.2. Regression für Modell mit schrittweiser Erhöhung der Parameter
4.2.1. Verwendetes Encoding Circuit
4.2.2. Regressionsfunktion
4.2.3. Ergebnisse
4.3. Regressionen mit Rauschen
4.3.1. Ergebnisse
5. Zusammenfassung und Ausblick
A. SGLBO Implementierung
B. QNN Beispiel
Zielsetzung und Themen
Die vorliegende Abschlussarbeit evaluiert die Leistungsfähigkeit des Optimierungsalgorithmus Stochastic Gradient Line Bayesian Optimization (SGLBO) im Vergleich zum etablierten Adam-Optimierer für die Parameteroptimierung in Quantum Neural Networks (QNNs).
- Vergleich von SGLBO und Adam Optimierung in verschiedenen QNN-Szenarien
- Untersuchung der Konvergenzgeschwindigkeit und Genauigkeit bei unterschiedlichen Parameteranzahlen
- Analyse der Rauschresistenz von SGLBO in verrauschten Quantenumgebungen
- Implementierung eines SGLBO-Optimierers innerhalb der sQUlearn-Bibliothek
Auszug aus dem Buch
Stochastic Gradient Line Bayesian Optimization
SGLBO ist ein Optimierungsalgorithmus, der speziell für die Parameteroptimierung von PQCs in der VQA-Umgebung entwickelt wurde. Dabei kombiniert er die zwei zuvor erwähnten Optimierungsverfahren SGD und BO.
Da die Optimierung der Parameter in einem VQA sehr rechenintensiv ist, wurde SGLBO entwickelt, um diesen Prozess effizienter zu gestalten. Dabei legen die Entwickler von SGLBO großen Wert darauf, das in Quantencomputern auftretende Rauschen besser als bisherige SGD-Optimierungsalgorithmen zu handhaben.
Die Erwartungswerte für das QNN müssen mit einer begrenzten Anzahl von Messschüssen ermittelt werden. Messungen werden sowohl für die Auswertung der Vorhersage des QNN als auch für die Gradientenberechnung benötigt. Die Durchführung von Messschüssen zur Extraktion eines Erwartungswertes ist sehr kostenintensiv, weshalb es eines der Ziele von SGLBO ist, die Gesamtzahl der notwendigen Messschüsse und damit die Gesamtkosten der Optimierung zu reduzieren. Da die Reduzierung der Messschüsse jedoch zu ungenaueren Erwartungswerten führt, ist es umso wichtiger, dass diese im Optimierungsalgorithmus effizient zur Minimierung der Kostenfunktion genutzt werden.
Zusammenfassung der Kapitel
1. Einleitung: Diese Arbeit analysiert und vergleicht Optimierungsalgorithmen für Parameterized Quantum Circuits (PQCs) innerhalb von Quantum Neural Networks.
2. Theoretischer Hintergrund: Es werden die Grundlagen des Quantencomputings, NISQ-Systeme, Variational Quantum Algorithms und Quantum Neural Networks erläutert.
3. Optimierungsalgorithmen und Implementierung: Detaillierte Vorstellung von SGD, BO, Adam sowie der speziellen SGLBO-Methodik und deren Einbindung in die sQUlearn-Bibliothek.
4. Benchmark: Experimentelle Untersuchung der Algorithmen anhand von Regressionen bei variierender Parameteranzahl sowie unter Einfluss von Rauschen.
5. Zusammenfassung und Ausblick: Die Ergebnisse bestätigen die Robustheit von Adam in rauschfreien Szenarien, während SGLBO eine überlegene Leistung in verrauschten Umgebungen erzielt.
Schlüsselwörter
Quantencomputing, Quantum Neural Networks, Parameterized Quantum Circuits, Stochastic Gradient Line Bayesian Optimization, Optimierung, SGLBO, Adam, NISQ, Variational Quantum Algorithms, Quantenrauschen, sQUlearn, Machine Learning, Regression, Bayes’sche Optimierung
Häufig gestellte Fragen
Was ist das zentrale Ziel der Arbeit?
Das Hauptziel ist die Evaluierung der Leistungsfähigkeit und Effizienz des SGLBO-Optimierers im Vergleich zum etablierten Adam-Algorithmus bei der Optimierung von QNN-Parametern.
Welche Algorithmen stehen im Fokus?
Die Arbeit untersucht den Stochastic Gradient Descent (SGD), die Bayesian Optimization (BO), den darauf basierenden, kombinierten SGLBO-Ansatz und den Adaptive Moment Estimation (Adam) Optimierer.
Welche wissenschaftliche Methode wird eingesetzt?
Es wird ein experimenteller Benchmark-Ansatz gewählt, bei dem QNNs auf simulierten Quantenhardware-Umgebungen trainiert werden, um Konvergenzverhalten und Rauschrobustheit zu messen.
Welche Themenfelder werden abgedeckt?
Die Arbeit deckt theoretische Grundlagen des Quantencomputings, die Architektur von Variational Quantum Algorithms und die praktische Implementierung von Optimierungsroutinen ab.
Was wird im Hauptteil behandelt?
Der Hauptteil umfasst die detaillierte algorithmische Beschreibung von SGLBO und Adam, die Implementierung in Python (sQUlearn) sowie umfangreiche Benchmarks zu verschiedenen Regressionsmodellen.
Wie lauten die prägenden Begriffe?
Die Arbeit ist insbesondere durch Konzepte wie QNN, PQC, Optimierung unter Rauschen und hybride Quanten-klassische Algorithmen charakterisiert.
Warum spielt Rauschen eine so große Rolle?
NISQ-Hardware ist inhärent verrauscht, was die präzise Bestimmung von Erwartungswerten erschwert und neue, robustere Optimierungsstrategien wie SGLBO notwendig macht.
Welche Schlussfolgerung zieht der Autor?
SGLBO ist Adam in verrauschten Umgebungen deutlich überlegen, während Adam in rauschfreien Szenarien bei komplexen Modellen oft stabilere Ergebnisse liefert.
- Arbeit zitieren
- Dennis Kleinahns (Autor:in), 2024, Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization, München, GRIN Verlag, https://www.grin.com/document/1445609