Grin logo
de en es fr
Shop
GRIN Website
Texte veröffentlichen, Rundum-Service genießen
Zur Shop-Startseite › Informatik - Künstliche Intelligenz

Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization

Titel: Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization

Bachelorarbeit , 2024 , 51 Seiten , Note: 1,3

Autor:in: Dennis Kleinahns (Autor:in)

Informatik - Künstliche Intelligenz
Leseprobe & Details   Blick ins Buch
Zusammenfassung Leseprobe Details

Die vorliegende Bachelorarbeit untersucht die Leistungsfähigkeit der "Stochastic Gradient Line Bayesian Optimization" (SGLBO) aus der Publikation von Tamiya und Yamasaki (2022), im Kontext der Parameteroptimierung für "Quantum Neural Networks" (QNN) und vergleicht diese mit der "Adaptive Moment Estimation" (Adam). Die Ergebnisse zeigen, dass beide Algorithmen in der Lage sind, QNNs zu trainieren. Dabei zeigt Adam vor allem Stärken in der rauschfreien Optimierung, während SGLBO signifikant bessere Ergebnisse in verrauschten Umgebungen erzielt. Damit konnten die Ergebnisse aus der Publikation von Tamiya und Yamasaki (2022) reproduziert werden.

Leseprobe


Inhaltsverzeichnis

1. Einleitung

2. Theoretischer Hintergrund

2.1. Einführung in Quantencomputing

2.1.1. Bits und Qubits

2.1.2. Superposition, Verschränkung und Messen von Quantenzuständen

2.1.3. Quantengatter

2.2. Noisy Intermediate-Scale Quantum Computing

2.2.1. Überblick über NISQ

2.2.2. Eigenschaften und Herausforderungen

2.3. Variational Quantum Algorithms

2.3.1. Aufbau und Funktionsweise

2.3.2. Anwendungsgebiete und Forschungsschwerpunkte

2.4. Quantum Neural Networks

2.4.1. Motivation für Quantum Neural Networks

2.4.2. Die Rolle von Parameterized Quantum Circuits

2.4.3. Funktionsweise

3. Optimierungsalgorithmen und Implementierung

3.1. Optimierungsalgorithmen

3.1.1. Stochastic Gradient Descent

3.1.2. Bayesian Optimization

3.1.3. Stochastic Gradient Line Bayesian Optimization

3.1.4. Adaptive Moment Estimation

3.2. Implementierung

3.2.1. sQUlearn

3.2.2. Implementierung der Stochastic Gradient Line Bayesian Optimization

3.2.3. Training von Quantum Neural Networks mit sQUlearn

4. Benchmark

4.1. Regression für eindimensionale Funktionen

4.1.1. Verwendetes Encoding Circuit

4.1.2. Vorhergesagte Funktionen

4.1.3. Ergebnisse

4.2. Regression für Modell mit schrittweiser Erhöhung der Parameter

4.2.1. Verwendetes Encoding Circuit

4.2.2. Regressionsfunktion

4.2.3. Ergebnisse

4.3. Regressionen mit Rauschen

4.3.1. Ergebnisse

5. Zusammenfassung und Ausblick

A. SGLBO Implementierung

B. QNN Beispiel

Zielsetzung und Themen

Die vorliegende Abschlussarbeit evaluiert die Leistungsfähigkeit des Optimierungsalgorithmus Stochastic Gradient Line Bayesian Optimization (SGLBO) im Vergleich zum etablierten Adam-Optimierer für die Parameteroptimierung in Quantum Neural Networks (QNNs).

  • Vergleich von SGLBO und Adam Optimierung in verschiedenen QNN-Szenarien
  • Untersuchung der Konvergenzgeschwindigkeit und Genauigkeit bei unterschiedlichen Parameteranzahlen
  • Analyse der Rauschresistenz von SGLBO in verrauschten Quantenumgebungen
  • Implementierung eines SGLBO-Optimierers innerhalb der sQUlearn-Bibliothek

Auszug aus dem Buch

Stochastic Gradient Line Bayesian Optimization

SGLBO ist ein Optimierungsalgorithmus, der speziell für die Parameteroptimierung von PQCs in der VQA-Umgebung entwickelt wurde. Dabei kombiniert er die zwei zuvor erwähnten Optimierungsverfahren SGD und BO.

Da die Optimierung der Parameter in einem VQA sehr rechenintensiv ist, wurde SGLBO entwickelt, um diesen Prozess effizienter zu gestalten. Dabei legen die Entwickler von SGLBO großen Wert darauf, das in Quantencomputern auftretende Rauschen besser als bisherige SGD-Optimierungsalgorithmen zu handhaben.

Die Erwartungswerte für das QNN müssen mit einer begrenzten Anzahl von Messschüssen ermittelt werden. Messungen werden sowohl für die Auswertung der Vorhersage des QNN als auch für die Gradientenberechnung benötigt. Die Durchführung von Messschüssen zur Extraktion eines Erwartungswertes ist sehr kostenintensiv, weshalb es eines der Ziele von SGLBO ist, die Gesamtzahl der notwendigen Messschüsse und damit die Gesamtkosten der Optimierung zu reduzieren. Da die Reduzierung der Messschüsse jedoch zu ungenaueren Erwartungswerten führt, ist es umso wichtiger, dass diese im Optimierungsalgorithmus effizient zur Minimierung der Kostenfunktion genutzt werden.

Zusammenfassung der Kapitel

1. Einleitung: Diese Arbeit analysiert und vergleicht Optimierungsalgorithmen für Parameterized Quantum Circuits (PQCs) innerhalb von Quantum Neural Networks.

2. Theoretischer Hintergrund: Es werden die Grundlagen des Quantencomputings, NISQ-Systeme, Variational Quantum Algorithms und Quantum Neural Networks erläutert.

3. Optimierungsalgorithmen und Implementierung: Detaillierte Vorstellung von SGD, BO, Adam sowie der speziellen SGLBO-Methodik und deren Einbindung in die sQUlearn-Bibliothek.

4. Benchmark: Experimentelle Untersuchung der Algorithmen anhand von Regressionen bei variierender Parameteranzahl sowie unter Einfluss von Rauschen.

5. Zusammenfassung und Ausblick: Die Ergebnisse bestätigen die Robustheit von Adam in rauschfreien Szenarien, während SGLBO eine überlegene Leistung in verrauschten Umgebungen erzielt.

Schlüsselwörter

Quantencomputing, Quantum Neural Networks, Parameterized Quantum Circuits, Stochastic Gradient Line Bayesian Optimization, Optimierung, SGLBO, Adam, NISQ, Variational Quantum Algorithms, Quantenrauschen, sQUlearn, Machine Learning, Regression, Bayes’sche Optimierung

Häufig gestellte Fragen

Was ist das zentrale Ziel der Arbeit?

Das Hauptziel ist die Evaluierung der Leistungsfähigkeit und Effizienz des SGLBO-Optimierers im Vergleich zum etablierten Adam-Algorithmus bei der Optimierung von QNN-Parametern.

Welche Algorithmen stehen im Fokus?

Die Arbeit untersucht den Stochastic Gradient Descent (SGD), die Bayesian Optimization (BO), den darauf basierenden, kombinierten SGLBO-Ansatz und den Adaptive Moment Estimation (Adam) Optimierer.

Welche wissenschaftliche Methode wird eingesetzt?

Es wird ein experimenteller Benchmark-Ansatz gewählt, bei dem QNNs auf simulierten Quantenhardware-Umgebungen trainiert werden, um Konvergenzverhalten und Rauschrobustheit zu messen.

Welche Themenfelder werden abgedeckt?

Die Arbeit deckt theoretische Grundlagen des Quantencomputings, die Architektur von Variational Quantum Algorithms und die praktische Implementierung von Optimierungsroutinen ab.

Was wird im Hauptteil behandelt?

Der Hauptteil umfasst die detaillierte algorithmische Beschreibung von SGLBO und Adam, die Implementierung in Python (sQUlearn) sowie umfangreiche Benchmarks zu verschiedenen Regressionsmodellen.

Wie lauten die prägenden Begriffe?

Die Arbeit ist insbesondere durch Konzepte wie QNN, PQC, Optimierung unter Rauschen und hybride Quanten-klassische Algorithmen charakterisiert.

Warum spielt Rauschen eine so große Rolle?

NISQ-Hardware ist inhärent verrauscht, was die präzise Bestimmung von Erwartungswerten erschwert und neue, robustere Optimierungsstrategien wie SGLBO notwendig macht.

Welche Schlussfolgerung zieht der Autor?

SGLBO ist Adam in verrauschten Umgebungen deutlich überlegen, während Adam in rauschfreien Szenarien bei komplexen Modellen oft stabilere Ergebnisse liefert.

Ende der Leseprobe aus 51 Seiten  - nach oben

Details

Titel
Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization
Hochschule
Hochschule für Technik Stuttgart  (Fakultät Vermessung, Informatik und Mathematik)
Note
1,3
Autor
Dennis Kleinahns (Autor:in)
Erscheinungsjahr
2024
Seiten
51
Katalognummer
V1445609
ISBN (PDF)
9783963554520
ISBN (Buch)
9783963554537
Sprache
Deutsch
Schlagworte
Qunatencomputing Optimierung
Produktsicherheit
GRIN Publishing GmbH
Arbeit zitieren
Dennis Kleinahns (Autor:in), 2024, Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization, München, GRIN Verlag, https://www.grin.com/document/1445609
Blick ins Buch
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
Leseprobe aus  51  Seiten
Grin logo
  • Grin.com
  • Versand
  • Kontakt
  • Datenschutz
  • AGB
  • Impressum