Grin logo
en de es fr
Shop
GRIN Website
Publish your texts - enjoy our full service for authors
Go to shop › Computer Sciences - Artificial Intelligence

Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization

Title: Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization

Bachelor Thesis , 2024 , 51 Pages , Grade: 1,3

Autor:in: Dennis Kleinahns (Author)

Computer Sciences - Artificial Intelligence
Excerpt & Details   Look inside the ebook
Summary Excerpt Details

Die vorliegende Bachelorarbeit untersucht die Leistungsfähigkeit der "Stochastic Gradient Line Bayesian Optimization" (SGLBO) aus der Publikation von Tamiya und Yamasaki (2022), im Kontext der Parameteroptimierung für "Quantum Neural Networks" (QNN) und vergleicht diese mit der "Adaptive Moment Estimation" (Adam). Die Ergebnisse zeigen, dass beide Algorithmen in der Lage sind, QNNs zu trainieren. Dabei zeigt Adam vor allem Stärken in der rauschfreien Optimierung, während SGLBO signifikant bessere Ergebnisse in verrauschten Umgebungen erzielt. Damit konnten die Ergebnisse aus der Publikation von Tamiya und Yamasaki (2022) reproduziert werden.

Excerpt


Inhaltsverzeichnis

  • 1. Einleitung
  • 2. Theoretischer Hintergrund
    • 2.1. Einführung in Quantencomputing
      • 2.1.1. Bits und Qubits
      • 2.1.2. Superposition, Verschränkung und Messen von Quantenzuständen
      • 2.1.3. Quantengatter
    • 2.2. Noisy Intermediate-Scale Quantum Computing
      • 2.2.1. Überblick über NISQ
      • 2.2.2. Eigenschaften und Herausforderungen
    • 2.3. Variational Quantum Algorithms
      • 2.3.1. Aufbau und Funktionsweise
      • 2.3.2. Anwendungsgebiete und Forschungsschwerpunkte
    • 2.4. Quantum Neural Networks
      • 2.4.1. Motivation für Quantum Neural Networks
      • 2.4.2. Die Rolle von Parameterized Quantum Circuits
      • 2.4.3. Funktionsweise
    • 3. Optimierungsalgorithmen und Implementierung
      • 3.1. Optimierungsalgorithmen
        • 3.1.1. Stochastic Gradient Descent
        • 3.1.2. Bayesian Optimization
        • 3.1.3. Stochastic Gradient Line Bayesian Optimization
        • 3.1.4. Adaptive Moment Estimation
      • 3.2. Implementierung
        • 3.2.1. sQUlearn
        • 3.2.2. Implementierung der Stochastic Gradient Line Bayesian Optimization
        • 3.2.3. Training von Quantum Neural Networks mit sQUlearn
      • 4. Benchmark
        • 4.1. Regression für eindimensionale Funktionen
          • 4.1.1. Verwendetes Encoding Circuit
          • 4.1.2. Vorhergesagte Funktionen
          • 4.1.3. Ergebnisse
        • 4.2. Regression für Modell mit schrittweiser Erhöhung der Parameter
          • 4.2.1. Verwendetes Encoding Circuit
          • 4.2.2. Regressionsfunktion
          • 4.2.3. Ergebnisse
        • 4.3. Regressionen mit Rauschen
          • 4.3.1. Ergebnisse

        Zielsetzung und Themenschwerpunkte

        Die vorliegende Bachelorarbeit untersucht die Wirksamkeit der Stochastic Gradient Line Bayesian Optimization (SGLBO) im Kontext der Parameteroptimierung für Quantum Neural Networks (QNN). Sie vergleicht SGLBO mit der Adaptive Moment Estimation (Adam) und analysiert die jeweilige Leistungsfähigkeit in rauschfreien und verrauschten Umgebungen.

        • Leistungsfähigkeit von SGLBO und Adam bei der Parameteroptimierung von QNNs
        • Vergleich der Algorithmen in rauschfreien und verrauschten Umgebungen
        • Reproduktion der Ergebnisse aus der Publikation von Tamiya und Yamasaki (2022)
        • Analyse der Stärken und Schwächen beider Algorithmen
        • Beitrag zur Weiterentwicklung von Optimierungsmethoden für QNNs

        Zusammenfassung der Kapitel

        • Kapitel 1: Einleitung: Dieses Kapitel führt in die Thematik der Arbeit ein und stellt die Motivation sowie die Forschungsfragen vor.
        • Kapitel 2: Theoretischer Hintergrund: Dieses Kapitel beleuchtet die relevanten theoretischen Grundlagen, einschließlich einer Einführung in Quantencomputing, NISQ-Computing, Variational Quantum Algorithms und Quantum Neural Networks.
        • Kapitel 3: Optimierungsalgorithmen und Implementierung: Dieses Kapitel erläutert die verschiedenen Optimierungsalgorithmen, die in der Arbeit verwendet werden, insbesondere SGLBO und Adam. Es beschreibt auch die Implementierung der Algorithmen und die verwendete Software (sQUlearn).
        • Kapitel 4: Benchmark: Dieses Kapitel präsentiert die Ergebnisse der Benchmark-Studien, die durchgeführt wurden, um die Leistung von SGLBO und Adam zu vergleichen. Es werden verschiedene Szenarien mit unterschiedlichen Schwierigkeitsgraden und Rauschbedingungen betrachtet.

        Schlüsselwörter

        Quantum Neural Networks, Stochastic Gradient Line Bayesian Optimization, Adaptive Moment Estimation, Parameteroptimierung, NISQ, Variational Quantum Algorithms, sQUlearn, Benchmark, Regression, Rauschen, Quantencomputing

Excerpt out of 51 pages  - scroll top

Details

Title
Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization
College
University of Applied Sciences Stuttgart  (Fakultät Vermessung, Informatik und Mathematik)
Grade
1,3
Author
Dennis Kleinahns (Author)
Publication Year
2024
Pages
51
Catalog Number
V1445609
ISBN (PDF)
9783963554520
ISBN (Book)
9783963554537
Language
German
Tags
Qunatencomputing Optimierung
Product Safety
GRIN Publishing GmbH
Quote paper
Dennis Kleinahns (Author), 2024, Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization, Munich, GRIN Verlag, https://www.grin.com/document/1445609
Look inside the ebook
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
Excerpt from  51  pages
Grin logo
  • Grin.com
  • Payment & Shipping
  • Contact
  • Privacy
  • Terms
  • Imprint