Grin logo
en de es fr
Shop
GRIN Website
Publicación mundial de textos académicos
Go to shop › Informática - Inteligencia artificial

Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization

Título: Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization

Tesis (Bachelor) , 2024 , 51 Páginas , Calificación: 1,3

Autor:in: Dennis Kleinahns (Autor)

Informática - Inteligencia artificial
Extracto de texto & Detalles   Leer eBook
Resumen Extracto de texto Detalles

Die vorliegende Bachelorarbeit untersucht die Leistungsfähigkeit der "Stochastic Gradient Line Bayesian Optimization" (SGLBO) aus der Publikation von Tamiya und Yamasaki (2022), im Kontext der Parameteroptimierung für "Quantum Neural Networks" (QNN) und vergleicht diese mit der "Adaptive Moment Estimation" (Adam). Die Ergebnisse zeigen, dass beide Algorithmen in der Lage sind, QNNs zu trainieren. Dabei zeigt Adam vor allem Stärken in der rauschfreien Optimierung, während SGLBO signifikant bessere Ergebnisse in verrauschten Umgebungen erzielt. Damit konnten die Ergebnisse aus der Publikation von Tamiya und Yamasaki (2022) reproduziert werden.

Extracto


Inhaltsverzeichnis

  • 1. Einleitung
  • 2. Theoretischer Hintergrund
    • 2.1. Einführung in Quantencomputing
      • 2.1.1. Bits und Qubits
      • 2.1.2. Superposition, Verschränkung und Messen von Quantenzuständen
      • 2.1.3. Quantengatter
    • 2.2. Noisy Intermediate-Scale Quantum Computing
      • 2.2.1. Überblick über NISQ
      • 2.2.2. Eigenschaften und Herausforderungen
    • 2.3. Variational Quantum Algorithms
      • 2.3.1. Aufbau und Funktionsweise
      • 2.3.2. Anwendungsgebiete und Forschungsschwerpunkte
    • 2.4. Quantum Neural Networks
      • 2.4.1. Motivation für Quantum Neural Networks
      • 2.4.2. Die Rolle von Parameterized Quantum Circuits
      • 2.4.3. Funktionsweise
    • 3. Optimierungsalgorithmen und Implementierung
      • 3.1. Optimierungsalgorithmen
        • 3.1.1. Stochastic Gradient Descent
        • 3.1.2. Bayesian Optimization
        • 3.1.3. Stochastic Gradient Line Bayesian Optimization
        • 3.1.4. Adaptive Moment Estimation
      • 3.2. Implementierung
        • 3.2.1. sQUlearn
        • 3.2.2. Implementierung der Stochastic Gradient Line Bayesian Optimization
        • 3.2.3. Training von Quantum Neural Networks mit sQUlearn
      • 4. Benchmark
        • 4.1. Regression für eindimensionale Funktionen
          • 4.1.1. Verwendetes Encoding Circuit
          • 4.1.2. Vorhergesagte Funktionen
          • 4.1.3. Ergebnisse
        • 4.2. Regression für Modell mit schrittweiser Erhöhung der Parameter
          • 4.2.1. Verwendetes Encoding Circuit
          • 4.2.2. Regressionsfunktion
          • 4.2.3. Ergebnisse
        • 4.3. Regressionen mit Rauschen
          • 4.3.1. Ergebnisse

        Zielsetzung und Themenschwerpunkte

        Die vorliegende Bachelorarbeit untersucht die Wirksamkeit der Stochastic Gradient Line Bayesian Optimization (SGLBO) im Kontext der Parameteroptimierung für Quantum Neural Networks (QNN). Sie vergleicht SGLBO mit der Adaptive Moment Estimation (Adam) und analysiert die jeweilige Leistungsfähigkeit in rauschfreien und verrauschten Umgebungen.

        • Leistungsfähigkeit von SGLBO und Adam bei der Parameteroptimierung von QNNs
        • Vergleich der Algorithmen in rauschfreien und verrauschten Umgebungen
        • Reproduktion der Ergebnisse aus der Publikation von Tamiya und Yamasaki (2022)
        • Analyse der Stärken und Schwächen beider Algorithmen
        • Beitrag zur Weiterentwicklung von Optimierungsmethoden für QNNs

        Zusammenfassung der Kapitel

        • Kapitel 1: Einleitung: Dieses Kapitel führt in die Thematik der Arbeit ein und stellt die Motivation sowie die Forschungsfragen vor.
        • Kapitel 2: Theoretischer Hintergrund: Dieses Kapitel beleuchtet die relevanten theoretischen Grundlagen, einschließlich einer Einführung in Quantencomputing, NISQ-Computing, Variational Quantum Algorithms und Quantum Neural Networks.
        • Kapitel 3: Optimierungsalgorithmen und Implementierung: Dieses Kapitel erläutert die verschiedenen Optimierungsalgorithmen, die in der Arbeit verwendet werden, insbesondere SGLBO und Adam. Es beschreibt auch die Implementierung der Algorithmen und die verwendete Software (sQUlearn).
        • Kapitel 4: Benchmark: Dieses Kapitel präsentiert die Ergebnisse der Benchmark-Studien, die durchgeführt wurden, um die Leistung von SGLBO und Adam zu vergleichen. Es werden verschiedene Szenarien mit unterschiedlichen Schwierigkeitsgraden und Rauschbedingungen betrachtet.

        Schlüsselwörter

        Quantum Neural Networks, Stochastic Gradient Line Bayesian Optimization, Adaptive Moment Estimation, Parameteroptimierung, NISQ, Variational Quantum Algorithms, sQUlearn, Benchmark, Regression, Rauschen, Quantencomputing

Final del extracto de 51 páginas  - subir

Detalles

Título
Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization
Universidad
University of Applied Sciences Stuttgart  (Fakultät Vermessung, Informatik und Mathematik)
Calificación
1,3
Autor
Dennis Kleinahns (Autor)
Año de publicación
2024
Páginas
51
No. de catálogo
V1445609
ISBN (PDF)
9783963554520
ISBN (Libro)
9783963554537
Idioma
Alemán
Etiqueta
Qunatencomputing Optimierung
Seguridad del producto
GRIN Publishing Ltd.
Citar trabajo
Dennis Kleinahns (Autor), 2024, Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization, Múnich, GRIN Verlag, https://www.grin.com/document/1445609
Leer eBook
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
Extracto de  51  Páginas
Grin logo
  • Grin.com
  • Page::Footer::PaymentAndShipping
  • Contacto
  • Privacidad
  • Aviso legal
  • Imprint