Grin logo
de en es fr
Shop
GRIN Website
Texte veröffentlichen, Rundum-Service genießen
Zur Shop-Startseite › Informatik - Künstliche Intelligenz

Neuronale Netze zur Bilderkennung. Zusammenhang zwischen Lernrate und Vorhersagekraft

Titel: Neuronale Netze zur Bilderkennung. Zusammenhang zwischen Lernrate und Vorhersagekraft

Projektarbeit , 2021 , 29 Seiten , Note: 1,3

Autor:in: Anonym (Autor:in)

Informatik - Künstliche Intelligenz
Leseprobe & Details   Blick ins Buch
Zusammenfassung Leseprobe Details

Viele Studien befassen sich lediglich damit, die Relevanz der KI zu umreißen. Einige wenige Studien setzen sich mit der Optimierung der KI auseinander. Eine Ursache hierfür könnte sein, dass KNN auf dem Vorbild der menschlichen Intelligenz beruhen und in diesem Zusammenhang keine Möglichkeit gegeben ist, eine einheitliche Formel zu modellieren, die die optimale Vorhersagekraft eines neuronalen Netzes berechnet.
Vor diesem Hintergrund ist das primäre Ziel der zugrundeliegenden Arbeit, den Zusammenhang zwischen Lernrate und Vorhersagekraft eines neuronalen Netzes zu untersuchen.

Leseprobe


Inhaltsverzeichnis

1. Einleitung

1.1 Problemstellung und Zielsetzung

1.2 Aufbau der Arbeit

1.3 Hypothese

2. Theoretische Grundlagen

2.1 Künstliche Neuronale Netze

2.2 Topologie

2.3 Lernen

2.4 Netzgröße

3. Praxisteil

3.1 Implementierung

3.2 Analyse

3.3 Ergebnisse

3.4 Diskussion

4. Fazit

Zielsetzung & Themen

Die Arbeit untersucht den Zusammenhang zwischen der Lernrate und der Vorhersagekraft Künstlicher Neuronaler Netze (KNN). Ziel ist es, empirisch nachzuweisen, wie sich die Anpassung der Lernrate auf die Erfolgsquote bei der Klassifizierung handgeschriebener Ziffern auswirkt und somit eine Grundlage für Optimierungsstrategien zu schaffen.

  • Grundlagen Künstlicher Neuronaler Netze und Deep Learning
  • Methodik des überwachten Lernens und Backpropagation
  • Implementierung eines neuronalen Netzes mittels Python
  • Analyse der Performance anhand der MNIST-Datenbank
  • Einfluss der Lernrate auf Trainingsdauer und Vorhersagegenauigkeit

Auszug aus dem Buch

Backpropagation

Backpropagation bzw. Fehlerrückführung ist ein gradientenbasiertes Lernverfahren für Neuronale Netze. Hierbei handelt es sich um eine Optimierungsprozedur zur Minimierung des Netzwerkfehlers. Die Backpropagation Methode ist ein wichtiges Verfahren beim überwachten Lernprozess. Das Ziel dieses Lernverfahrens ist, die Verbindungsgewichte zwischen den Neuronen so anzupassen, dass die Ausgabe des Neuronalen Netzes hinreichend genau mit dem gewünschten Ergebnis übereinstimmt. Hierfür wird die Ausgabe des Netzwerks mit der Ausgabe des gewünschten Ergebnisses vergleichen. Die Abweichung (Differenz) zwischen den beiden Zuständen wird dafür eingesetzt, um die Verbindungsgewichte zwischen den Neuronen zu modifizieren. Die Fehler in der Ausgangsschicht werden anteilig auf die Fehlerbeiträge der beteiligten verborgenen Schichten rückwärts bis hin zu den Eingangsschichten zurückgeführt. Die Verbindungsgewichte werden iterativ angepasst. Somit lernt das Netzwerk, sich anzupassen.

Zusammenfassung der Kapitel

1. Einleitung: Dieses Kapitel führt in die Bedeutung von Künstlicher Intelligenz ein, definiert die zentralen Begriffe und skizziert die Problemstellung sowie das Forschungsziel der Arbeit.

2. Theoretische Grundlagen: Hier werden die Funktionsweise von Künstlichen Neuronalen Netzen, ihre Topologien sowie Lernmethoden wie Backpropagation und die Bedeutung der Lernrate erläutert.

3. Praxisteil: Dieser Abschnitt beschreibt die konkrete Implementierung des neuronalen Netzes, die Datenaufbereitung mit der MNIST-Datenbank, die durchgeführte Analyse und die Diskussion der erzielten Ergebnisse.

4. Fazit: Das Fazit fasst die Ergebnisse zusammen, bestätigt die aufgestellte Hypothese und gibt einen Ausblick auf mögliche weiterführende Forschungsansätze im Bereich der Netzoptimierung.

Schlüsselwörter

Künstliche Intelligenz, Deep Learning, Neuronale Netze, KNN, Maschinelles Lernen, Lernrate, Backpropagation, MNIST, Klassifikation, Vorhersagekraft, Datenanalyse, Algorithmus, Optimierung, Informatik, Python

Häufig gestellte Fragen

Worum geht es in dieser Arbeit grundsätzlich?

Die Arbeit befasst sich mit der Optimierung Künstlicher Neuronaler Netze, insbesondere der Untersuchung des Einflusses der Lernrate auf deren Vorhersagekraft.

Was sind die zentralen Themenfelder der Publikation?

Die Arbeit deckt die theoretischen Grundlagen neuronaler Netze, deren Implementierung in Python und die praktische Anwendung zur Bildklassifizierung ab.

Was ist die primäre Forschungsfrage?

Die zentrale Forschungsfrage lautet: Welchen Einfluss hat die Höhe der Lernrate einer bestimmten Netzgröße auf die Vorhersagekraft des neuronalen Netzes?

Welche wissenschaftliche Methode kommt zum Einsatz?

Es wird ein experimenteller Ansatz gewählt, bei dem ein neuronales Netz programmiert und mit unterschiedlichen Lernraten auf Daten der MNIST-Datenbank trainiert wird.

Was wird im Hauptteil behandelt?

Der Hauptteil gliedert sich in eine theoretische Einführung in die Architektur neuronaler Netze und einen Praxisteil, in dem die Modellierung und Evaluierung des Netzes dokumentiert werden.

Welche Schlüsselwörter charakterisieren die Arbeit?

Wichtige Begriffe sind Künstliche Neuronale Netze (KNN), Lernrate, Deep Learning, Backpropagation und Klassifikation.

Warum wurde die MNIST-Datenbank für das Experiment gewählt?

Die MNIST-Datenbank ist ein Standard für Bilderkennungsaufgaben und bietet mit handgeschriebenen Ziffern ein adäquates Beispiel, um die Leistungsfähigkeit des Algorithmus zu testen.

Welche Rolle spielt die Lernrate bei der Netzoptimierung?

Die Lernrate steuert, wie stark Gewichte bei der Fehlerminimierung angepasst werden; eine zu hohe Rate führt zu "Overshooting", während eine zu niedrige Rate das Finden des Minimums behindern kann.

Welches Ergebnis lieferte die Untersuchung zur Trainingsdauer?

Es wurde festgestellt, dass eine hohe Lernrate das Training tendenziell länger dauern lässt als eine niedrigere Lernrate, was auf komplexere Anpassungsprozesse hindeuten kann.

Was ist das Hauptergebnis bezüglich der Hypothese?

Die Hypothese konnte bestätigt werden: Mit sinkender Lernrate steigt die Trefferwahrscheinlichkeit des Modells bei der Identifizierung der Ziffern tendenziell an.

Ende der Leseprobe aus 29 Seiten  - nach oben

Details

Titel
Neuronale Netze zur Bilderkennung. Zusammenhang zwischen Lernrate und Vorhersagekraft
Hochschule
FOM Hochschule für Oekonomie & Management gemeinnützige GmbH, Köln
Note
1,3
Autor
Anonym (Autor:in)
Erscheinungsjahr
2021
Seiten
29
Katalognummer
V1139820
ISBN (eBook)
9783346515872
ISBN (Buch)
9783346515889
Sprache
Deutsch
Schlagworte
neuronale netze bilderkennung zusammenhang lernrate vorhersagekraft
Produktsicherheit
GRIN Publishing GmbH
Arbeit zitieren
Anonym (Autor:in), 2021, Neuronale Netze zur Bilderkennung. Zusammenhang zwischen Lernrate und Vorhersagekraft, München, GRIN Verlag, https://www.grin.com/document/1139820
Blick ins Buch
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
Leseprobe aus  29  Seiten
Grin logo
  • Grin.com
  • Versand
  • Kontakt
  • Datenschutz
  • AGB
  • Impressum