Grin logo
en de es fr
Shop
GRIN Website
Texte veröffentlichen, Rundum-Service genießen
Zur Shop-Startseite › Informatik - Künstliche Intelligenz

Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization

Titel: Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization

Bachelorarbeit , 2024 , 51 Seiten , Note: 1,3

Autor:in: Dennis Kleinahns (Autor:in)

Informatik - Künstliche Intelligenz
Leseprobe & Details   Blick ins Buch
Zusammenfassung Leseprobe Details

Die vorliegende Bachelorarbeit untersucht die Leistungsfähigkeit der "Stochastic Gradient Line Bayesian Optimization" (SGLBO) aus der Publikation von Tamiya und Yamasaki (2022), im Kontext der Parameteroptimierung für "Quantum Neural Networks" (QNN) und vergleicht diese mit der "Adaptive Moment Estimation" (Adam). Die Ergebnisse zeigen, dass beide Algorithmen in der Lage sind, QNNs zu trainieren. Dabei zeigt Adam vor allem Stärken in der rauschfreien Optimierung, während SGLBO signifikant bessere Ergebnisse in verrauschten Umgebungen erzielt. Damit konnten die Ergebnisse aus der Publikation von Tamiya und Yamasaki (2022) reproduziert werden.

Leseprobe


Inhaltsverzeichnis

  • 1. Einleitung
  • 2. Theoretischer Hintergrund
    • 2.1. Einführung in Quantencomputing
      • 2.1.1. Bits und Qubits
      • 2.1.2. Superposition, Verschränkung und Messen von Quantenzuständen
      • 2.1.3. Quantengatter
    • 2.2. Noisy Intermediate-Scale Quantum Computing
      • 2.2.1. Überblick über NISQ
      • 2.2.2. Eigenschaften und Herausforderungen
    • 2.3. Variational Quantum Algorithms
      • 2.3.1. Aufbau und Funktionsweise
      • 2.3.2. Anwendungsgebiete und Forschungsschwerpunkte
    • 2.4. Quantum Neural Networks
      • 2.4.1. Motivation für Quantum Neural Networks
      • 2.4.2. Die Rolle von Parameterized Quantum Circuits
      • 2.4.3. Funktionsweise
    • 3. Optimierungsalgorithmen und Implementierung
      • 3.1. Optimierungsalgorithmen
        • 3.1.1. Stochastic Gradient Descent
        • 3.1.2. Bayesian Optimization
        • 3.1.3. Stochastic Gradient Line Bayesian Optimization
        • 3.1.4. Adaptive Moment Estimation
      • 3.2. Implementierung
        • 3.2.1. sQUlearn
        • 3.2.2. Implementierung der Stochastic Gradient Line Bayesian Optimization
        • 3.2.3. Training von Quantum Neural Networks mit sQUlearn
      • 4. Benchmark
        • 4.1. Regression für eindimensionale Funktionen
          • 4.1.1. Verwendetes Encoding Circuit
          • 4.1.2. Vorhergesagte Funktionen
          • 4.1.3. Ergebnisse
        • 4.2. Regression für Modell mit schrittweiser Erhöhung der Parameter
          • 4.2.1. Verwendetes Encoding Circuit
          • 4.2.2. Regressionsfunktion
          • 4.2.3. Ergebnisse
        • 4.3. Regressionen mit Rauschen
          • 4.3.1. Ergebnisse

        Zielsetzung und Themenschwerpunkte

        Die vorliegende Bachelorarbeit untersucht die Wirksamkeit der Stochastic Gradient Line Bayesian Optimization (SGLBO) im Kontext der Parameteroptimierung für Quantum Neural Networks (QNN). Sie vergleicht SGLBO mit der Adaptive Moment Estimation (Adam) und analysiert die jeweilige Leistungsfähigkeit in rauschfreien und verrauschten Umgebungen.

        • Leistungsfähigkeit von SGLBO und Adam bei der Parameteroptimierung von QNNs
        • Vergleich der Algorithmen in rauschfreien und verrauschten Umgebungen
        • Reproduktion der Ergebnisse aus der Publikation von Tamiya und Yamasaki (2022)
        • Analyse der Stärken und Schwächen beider Algorithmen
        • Beitrag zur Weiterentwicklung von Optimierungsmethoden für QNNs

        Zusammenfassung der Kapitel

        • Kapitel 1: Einleitung: Dieses Kapitel führt in die Thematik der Arbeit ein und stellt die Motivation sowie die Forschungsfragen vor.
        • Kapitel 2: Theoretischer Hintergrund: Dieses Kapitel beleuchtet die relevanten theoretischen Grundlagen, einschließlich einer Einführung in Quantencomputing, NISQ-Computing, Variational Quantum Algorithms und Quantum Neural Networks.
        • Kapitel 3: Optimierungsalgorithmen und Implementierung: Dieses Kapitel erläutert die verschiedenen Optimierungsalgorithmen, die in der Arbeit verwendet werden, insbesondere SGLBO und Adam. Es beschreibt auch die Implementierung der Algorithmen und die verwendete Software (sQUlearn).
        • Kapitel 4: Benchmark: Dieses Kapitel präsentiert die Ergebnisse der Benchmark-Studien, die durchgeführt wurden, um die Leistung von SGLBO und Adam zu vergleichen. Es werden verschiedene Szenarien mit unterschiedlichen Schwierigkeitsgraden und Rauschbedingungen betrachtet.

        Schlüsselwörter

        Quantum Neural Networks, Stochastic Gradient Line Bayesian Optimization, Adaptive Moment Estimation, Parameteroptimierung, NISQ, Variational Quantum Algorithms, sQUlearn, Benchmark, Regression, Rauschen, Quantencomputing

Ende der Leseprobe aus 51 Seiten  - nach oben

Details

Titel
Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization
Hochschule
Hochschule für Technik Stuttgart  (Fakultät Vermessung, Informatik und Mathematik)
Note
1,3
Autor
Dennis Kleinahns (Autor:in)
Erscheinungsjahr
2024
Seiten
51
Katalognummer
V1445609
ISBN (PDF)
9783963554520
ISBN (Buch)
9783963554537
Sprache
Deutsch
Schlagworte
Qunatencomputing Optimierung
Produktsicherheit
GRIN Publishing GmbH
Arbeit zitieren
Dennis Kleinahns (Autor:in), 2024, Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization, München, GRIN Verlag, https://www.grin.com/document/1445609
Blick ins Buch
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
Leseprobe aus  51  Seiten
Grin logo
  • Grin.com
  • Zahlung & Versand
  • Impressum
  • Datenschutz
  • AGB
  • Impressum