Grin logo
de en es fr
Shop
GRIN Website
Publish your texts - enjoy our full service for authors
Go to shop › Computer Science - Technical Computer Science

Paralleles Rechnen

Title: Paralleles Rechnen

Seminar Paper , 2017 , 16 Pages

Autor:in: Samory Gassama (Author)

Computer Science - Technical Computer Science
Excerpt & Details   Look inside the ebook
Summary Excerpt Details

Paralleles Rechnen ist die Zusammensetzung der Ergebnisse mehrerer Teilberechnungen zu einem Gesamtergebnis. Es existieren mehrere Gründe wie z.B. die Ausführungsdauer. Durch das Parallele Rechnen ist es bei Simulationen möglich viel Zeit zu sparen und die Ergebnisse schneller zu erhalten. Ein anderer Grund ist die Ressourcenbeschränktheit. Simulationen können die Kapazitäten (z.B. Speicherkapazität) eines einzigen Computers übertreffen. Um trotzdem die Simulation durchzuführen, könnte man mehrere Computer miteinander verbinden. Der letzte Grund den wir erwähnen ist die Komplexe Problemdarstellung. Es gibt Simulationen die so komplex sind, dass um ein Ergebnis zu erhalten, eine Parallele Bearbeitung die einzige Möglichkeit ist. Paralleles Rechnen wird in vielen verschiedenen Bereichen wie z.B. in der Wirtschaft (Big Data, Data Mining...) und in der Forschung (Physik, Mathematik...) verwendet.

Excerpt


Inhaltsverzeichnis

1 Einleitung

2 Lattice Boltzmann Grundlagen

2.1 Einführung

2.2 Die Lattice Boltzmann Methode

3 Parallelisierungmethoden

3.1 OpenMP

3.1.1 Grundlagen

3.1.2 Vorteile und Nachteile von OpenMP

3.2 MPI

3.2.1 Definition

3.2.2 Message-Passing-Modell

3.2.3 Vorteile und Nachteile von MPI

3.3 GPGPU

3.3.1 Grundlagen

3.3.2 Vor- und Nachteile von GPGPU

4 Parallelisierung von Lattice Boltzmann

4.1 Mit MPI

4.2 Mit OpenMP

4.3 Mit GPGPU

Zielsetzung & Themen

Die vorliegende Arbeit untersucht die Möglichkeiten und Techniken des parallelen Rechnens, um die Effizienz von Strömungssimulationen, insbesondere unter Verwendung der Lattice-Boltzmann-Methode, signifikant zu steigern. Dabei werden sowohl theoretische Grundlagen als auch konkrete Implementierungsansätze analysiert.

  • Grundlagen und Funktionsweise der Lattice-Boltzmann-Methode für Strömungssimulationen.
  • Analyse gängiger Parallelisierungsmethoden wie OpenMP, MPI und GPGPU.
  • Gegenüberstellung der Vor- und Nachteile unterschiedlicher Programmiermodelle.
  • Konkrete Implementierung der Parallelisierung für Lattice-Boltzmann-Algorithmen.
  • Vergleich zwischen speicherbasierten und nachrichtenorientierten Parallelisierungsansätzen.

Auszug aus dem Buch

3.2.2 Message-Passing-Modell

Message Passing wird der Nachrichtenaustausch zwischen den verschiedenen Prozessoren uber ein Netzwerk genannt [4]. Die Prozessoren haben keinen gemeinsamen Speicher sondern jeder hat seinen eigenen. Also kann kein Prozessor auf die Daten eines anderen Prozessoren zuruckgreifen. In der folgenden Grafik wird ein einfaches Beispiel von Message Passing abgebildet.In dieser Grafik sendet der Prozessor P0 eine Nachricht an den Prozessor P1 uber das Netzwerk [2]. Wendet man dieses Konzept von Message Passing auf einer Grosseren Ebene an, erhalt man das Message-Passing-Modell. Das heißt mit einem Netzwerk und einer festen Anzahl an Prozessoren und Prozessen [4]. Und wie oben schon erwahnt hat jeder der Prozessoren seinen lokalen Speicher und die Prozessoren kommunizieren uber das Netzwerk miteinander.

Zusammenfassung der Kapitel

1 Einleitung: Diese Einleitung erläutert die Notwendigkeit des parallelen Rechnens zur Bewältigung komplexer Simulationen bei Ressourcenbeschränkungen und hohen Rechenanforderungen.

2 Lattice Boltzmann Grundlagen: Hier werden die theoretischen Basisgleichungen und die Diskretisierung des Raumes erläutert, die für die Anwendung der Lattice-Boltzmann-Methode erforderlich sind.

3 Parallelisierungmethoden: Dieses Kapitel vergleicht die Architekturen und Funktionsweisen von OpenMP, MPI und GPGPU als grundlegende Ansätze für parallele Programmierung.

4 Parallelisierung von Lattice Boltzmann: Der Hauptteil beschreibt die praktische Umsetzung der zuvor genannten Methoden zur Parallelisierung spezifisch für den Lattice-Boltzmann-Algorithmus.

Schlüsselwörter

Paralleles Rechnen, Lattice-Boltzmann-Methode, Strömungssimulation, OpenMP, MPI, GPGPU, Fork-Join-Prinzip, Message-Passing-Modell, Multicore-Prozessoren, Rechenleistung, Algorithmen, Speicherverwaltung, Simulationstechnik, Datenkommunikation, Knotengitter.

Häufig gestellte Fragen

Worum geht es in dieser Arbeit grundsätzlich?

Die Arbeit befasst sich mit der Optimierung von Strömungssimulationen durch Techniken des parallelen Rechnens, um die Rechenzeit bei komplexen Berechnungen zu minimieren.

Welche zentralen Themenfelder werden behandelt?

Zentrale Themen sind die Lattice-Boltzmann-Methode, parallele Programmiermodelle (OpenMP, MPI) sowie die Nutzung von Grafikprozessoren (GPGPU) für wissenschaftliche Berechnungen.

Was ist das primäre Ziel der Arbeit?

Das Ziel ist es, aufzuzeigen, wie Simulationen durch Parallelisierung effizienter gestaltet werden können, indem die verfügbare Hardwarekapazität optimal genutzt wird.

Welche wissenschaftlichen Methoden werden verwendet?

Die Arbeit nutzt die Literaturanalyse zur Erarbeitung der theoretischen Grundlagen und stellt diese durch algorithmische Konzepte und Quellcode-Beispiele dar.

Was wird im Hauptteil der Arbeit behandelt?

Im Hauptteil werden die verschiedenen Parallelisierungsmethoden im Detail analysiert und deren spezifische Anwendung auf Lattice-Boltzmann-Algorithmen demonstriert.

Welche Begriffe charakterisieren die Arbeit am besten?

Typische Begriffe sind Parallelisierung, Lattice-Boltzmann, HPC (High Performance Computing), MPI, OpenMP und GPGPU.

Wie unterscheidet sich die Parallelisierung mit MPI von der mit OpenMP?

MPI wird in verteilten Systemen ohne gemeinsamen Speicher eingesetzt und erfordert expliziten Nachrichtenaustausch, während OpenMP auf Systemen mit gemeinsamem Speicher arbeitet.

Warum spielt GPGPU eine wichtige Rolle bei Simulationen?

GPGPU ermöglicht es, die hohe Anzahl an Kernen moderner Grafikprozessoren für rechenintensive, massiv parallele Aufgaben zu nutzen, was die Effizienz drastisch steigern kann.

Was ist die größte Herausforderung bei der MPI-Parallelisierung?

Die größte Herausforderung liegt in der effizienten Verwaltung des Datenaustauschs zwischen den verschiedenen Prozessoren und dem Overhead der Kommunikation über das Netzwerk.

Excerpt out of 16 pages  - scroll top

Details

Title
Paralleles Rechnen
Author
Samory Gassama (Author)
Publication Year
2017
Pages
16
Catalog Number
V443071
ISBN (eBook)
9783668814806
ISBN (Book)
9783668814813
Language
German
Tags
paralleles rechnen
Product Safety
GRIN Publishing GmbH
Quote paper
Samory Gassama (Author), 2017, Paralleles Rechnen, Munich, GRIN Verlag, https://www.grin.com/document/443071
Look inside the ebook
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
Excerpt from  16  pages
Grin logo
  • Grin.com
  • Shipping
  • Contact
  • Privacy
  • Terms
  • Imprint