Grin logo
de en es fr
Shop
GRIN Website
Publicación mundial de textos académicos
Go to shop › Informática - Inteligencia artificial

Convolutional Neural Networks (CNN). Eigenschaften und Lernalgorithmen

Título: Convolutional Neural Networks (CNN). Eigenschaften und Lernalgorithmen

Trabajo Escrito , 2024 , 17 Páginas , Calificación: 1,0

Autor:in: Julian Sternitzke (Autor)

Informática - Inteligencia artificial
Extracto de texto & Detalles   Leer eBook
Resumen Extracto de texto Detalles

Primärziel der Arbeit ist es, den grundlegenden Aufbau und die Funktionsweise von CNN zu erläutern. Dabei wird ebenfalls die Regularisierungsmethode Dropout zur Effizienzsteigerung vorgestellt, sowie fortgeschrittene CNN-Architekturen und Layertypen angeschnitten. Ein genereller Überblick über KNN soll dabei zum besseren Verständnis der Architektur beitragen. Um die Bedeutung von CNN für das Deep Learning darzustellen, wird die historische Entwicklung dieser Disziplin im Allgemeinen und von CNNs im Speziellen skizziert. Weiterhin werden Einsatzmöglichkeiten von CNN abseits der Bilderkennung vorgestellt.

Spätestens seit dem Sieg von Google DeepMinds Programm "AlphaGo" gegen den Go-Spitzenspieler Lee Se-dol im März 2016 sind Deep Learning und Künstliche Neuronale Netze (KNN ) im medialen Mainstream angekommen. Für den Erfolg von AlphaGo ist jedoch eine außerhalb von Fachkreisen weniger bekannte Variante des Deep Learnings namens Convolutional Neural Networks (CNN) verantwortlich, die normalerweise für die Bilderkennung eingesetzt wird. In diesem Bereich sind die CNN spätestens ab dem Jahr 2015 zum Standard geworden.

Das Assignment ist in vier Kapitel gegliedert. Auf die Einführung in die Fragestellung in Kapitel 1 folgt der Hauptteil mit den Kapiteln 2 und 3. Kapitel 2 stellt ein Grundlagenkapitel dar, in dem Deep Learning definiert und die Bestandteile und Wirkmechanismen eines KNN anhand von Feedforward-Netzen vorgestellt werden. Kapitel 3 befasst sich eingehend mit CNN. Zunächst werden der Aufbau und die unterschiedlichen Layertypen erklärt. Anschließend wird die Funktionsweise von CNN erläutert, wobei auch auf Unterschiede zur KNN-Architektur aus Kapitel 2 eingegangen wird. Weiterhin wird die Regularisierungsmethode "Dropout" für die Effizienzsteigerung tiefer Netze beleuchtet sowie neuartige CNN-Architekturen und Layertypen vorgestellt. Das Kapitel schließt mit einem Überblick über die Anwendungsgebiete von CNN. Die Ergebnisse der Arbeit werden im Fazit in Kapitel 4 zusammengefasst und kritisch beleuchtet.

Extracto


Inhaltsverzeichnis

1. Einleitung

1.1. Ziel der Arbeit

1.2. Aufbau der Arbeit

2. Deep Learning

2.1. Grundlagen

2.2. Historische Entwicklung

3. Convolutional Neural Networks (CNN)

3.1. Aufbau

3.2. Funktionsweise

3.3. Regularisierung

3.4. Fortgeschrittene Architekturen

3.4.1. ResNets

3.4.2. DenseNets

3.4.3. Octave Convolutions

3.5. Beispielhafte Anwendungsgebiete

4. Fazit und kritische Würdigung

Zielsetzung & Themen

Das primäre Ziel dieser Arbeit ist es, den grundlegenden Aufbau sowie die Funktionsweise von Convolutional Neural Networks (CNN) zu erläutern und deren Bedeutung innerhalb des Deep Learnings durch eine historische Einordnung zu verdeutlichen.

  • Grundlagen und historische Entwicklung von Deep Learning und neuronalen Netzen
  • Aufbau und Funktionsweise von CNN-Architekturen
  • Regularisierungsmethoden wie Dropout zur Steigerung der Modelleffizienz
  • Fortgeschrittene Architekturen (ResNet, DenseNet, Octave Convolutions)
  • Anwendungsgebiete von CNN jenseits der klassischen Bilderkennung

Auszug aus dem Buch

3.2. Funktionsweise

Herkömmliche Feedforward-Netze lernen, indem die für die Lösung der Aufgabe am besten geeigneten Linearkombinationen der Eingangsdaten (Features) mittels Gewichtsanpassungen verstärkt und weniger geeignete abgeschwächt werden (Feature/Representation Learning). Für Bilddaten ist diese Herangehensweise jedoch ungeeignet, da die räumliche Nähe der Pixel (= Features) zueinander für die Mustererkennung relevant ist. Aus zufällig zusammengestellten Features ist kein sinnvolles Muster zu erwarten. In einer herkömmlichen Architektur besteht die Dense layer dazu aus Neuronen, die mit sämtlichen Features über Gewichte verbunden sind. Im Falle eines Bildes mit einer Auflösung von 1920 x 1080 Pixeln entspräche dies bereits mehr als Zwei Millionen Gewichten, was das Training zeit- und rechenintensiv machen würde.

Statt alle möglichen Linearkombinationen der Pixel zu berechnen, setzen CNN deshalb eine sogenannte Faltungsoperation (Convolution) ein, bei der rechteckige (meist quadratische) Gewichtsmatrizen, sogenannte Filter bzw. Kernel, definiert werden. Diese Filter werden auf die Pixel eines Bildausschnitts derselben Größe angewendet, indem die Summe des resultierenden elementweisen Produkts gebildet wird. Dieses kann mit einem Bias-Term versehen und durch eine Aktivierungsfunktion geleitet werden und entspricht somit einem Neuron im CNN. Das aus dem Bildausschnitt durch die Gewichtungen definierte Feature stellt die Repräsentation eines visuellen Musters dar. Der Filter wird anschließend von links nach rechts über das Bild bewegt, um zu prüfen, ob das Muster an der jeweiligen Position vorliegt. In der Regel kommt bei dieser Operation das sogenannte Zero-Padding zum Einsatz: die Bildpixel werden mit einem Rahmen von Nullen umgeben, um ein „Schrumpfen“ des Outputs zu verhindern.

Zusammenfassung der Kapitel

1. Einleitung: Dieses Kapitel motiviert die Relevanz von Convolutional Neural Networks durch ihren Erfolg bei populären Anwendungen wie AlphaGo und skizziert den Aufbau der Untersuchung.

2. Deep Learning: Hier werden die theoretischen Grundlagen des maschinellen Lernens sowie der Aufbau und die Funktionsweise von klassischen künstlichen neuronalen Netzen (KNN) erläutert.

3. Convolutional Neural Networks (CNN): Der Hauptteil analysiert detailliert den speziellen Aufbau, die Faltungsmechanismen, Regularisierungsstrategien und moderne Architekturvarianten von CNNs.

4. Fazit und kritische Würdigung: Abschließend werden die zentralen Erkenntnisse zusammengefasst und die Einschränkungen der Arbeit in Bezug auf mathematische Tiefe und praktische Implementierung reflektiert.

Schlüsselwörter

Deep Learning, Convolutional Neural Networks, Künstliche Neurale Netze, Bilderkennung, Faltungsoperation, Dropout, ResNet, DenseNet, Gradientendegeneration, Feature Map, Pooling, Machine Learning, Backpropagation, Objekterkennung, Architektur.

Häufig gestellte Fragen

Worum geht es in dieser Arbeit grundsätzlich?

Die Arbeit behandelt die Funktionsweise und den Aufbau von Convolutional Neural Networks (CNN) und ordnet diese Technologie in den historischen Kontext des Deep Learnings ein.

Was sind die zentralen Themenfelder?

Die zentralen Themen umfassen die Architektur von CNNs, deren Abgrenzung zu klassischen Feedforward-Netzen, Optimierungsmöglichkeiten durch Regularisierung und verschiedene moderne Architekturkonzepte.

Was ist das primäre Ziel der Arbeit?

Das Hauptziel ist es, ein Verständnis für die spezialisierten Schichten und Verfahren zu schaffen, die CNNs so effizient für die Bearbeitung von Bilddaten machen.

Welche wissenschaftliche Methode wird verwendet?

Es handelt sich um eine theoretische Arbeit, die auf einer umfassenden Literaturanalyse aktueller Fachpublikationen und Standardwerke des maschinellen Lernens basiert.

Was wird im Hauptteil behandelt?

Im Hauptteil werden der Aufbau, die Faltungsoperation (Convolution), Pooling-Layer, Regularisierungsmethoden wie Dropout sowie fortgeschrittene Ansätze wie ResNets und DenseNets diskutiert.

Welche Schlüsselwörter charakterisieren die Arbeit?

Die wichtigsten Schlüsselbegriffe sind Deep Learning, CNN, Faltungsoperation, Architektur, Bilderkennung und Regularisierung.

Wie unterscheidet sich die Faltungsoperation von klassischen Dense Layers?

Anstatt eine enorme Menge an Gewichten für jede Pixelverbindung zu nutzen, verwendet die Faltungsoperation kleine Filter, die systematisch über das Bild gleiten, was die Effizienz massiv steigert.

Was ist die Funktion von Dropout?

Dropout verhindert Overfitting in sehr tiefen Netzen, indem während des Trainings zufällig Neuronen deaktiviert werden, wodurch das Netz robuster und weniger abhängig von spezifischen Pfaden wird.

Warum sind ResNets für sehr tiefe Architekturen wichtig?

ResNets lösen das Problem der Gradientendegeneration, indem sie sogenannte Residual Learning Blocks einsetzen, die den Gradientenfluss durch das Überspringen von Schichten vereinfachen.

Welchen Vorteil bieten DenseNets gegenüber ResNets?

DenseNets erreichen eine vergleichbare Leistung wie ResNets, benötigen jedoch deutlich weniger Parameter, was den Ressourcenverbrauch bei Speicherung und Berechnung reduziert.

Final del extracto de 17 páginas  - subir

Detalles

Título
Convolutional Neural Networks (CNN). Eigenschaften und Lernalgorithmen
Universidad
AKAD University of Applied Sciences Stuttgart  (Technik und Informatik)
Curso
Deep Learning
Calificación
1,0
Autor
Julian Sternitzke (Autor)
Año de publicación
2024
Páginas
17
No. de catálogo
V1458222
ISBN (PDF)
9783389000533
ISBN (Libro)
9783389000540
Idioma
Alemán
Etiqueta
CNN KNN Deep Learning Octave Convolutions DenseNets ResNets
Seguridad del producto
GRIN Publishing Ltd.
Citar trabajo
Julian Sternitzke (Autor), 2024, Convolutional Neural Networks (CNN). Eigenschaften und Lernalgorithmen, Múnich, GRIN Verlag, https://www.grin.com/document/1458222
Leer eBook
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
Extracto de  17  Páginas
Grin logo
  • Grin.com
  • Envío
  • Contacto
  • Privacidad
  • Aviso legal
  • Imprint