Paralleles Rechnen ist die Zusammensetzung der Ergebnisse mehrerer Teilberechnungen zu einem Gesamtergebnis. Es existieren mehrere Gründe wie z.B. die Ausführungsdauer. Durch das Parallele Rechnen ist es bei Simulationen möglich viel Zeit zu sparen und die Ergebnisse schneller zu erhalten. Ein anderer Grund ist die Ressourcenbeschränktheit. Simulationen können die Kapazitäten (z.B. Speicherkapazität) eines einzigen Computers übertreffen. Um trotzdem die Simulation durchzuführen, könnte man mehrere Computer miteinander verbinden. Der letzte Grund den wir erwähnen ist die Komplexe Problemdarstellung. Es gibt Simulationen die so komplex sind, dass um ein Ergebnis zu erhalten, eine Parallele Bearbeitung die einzige Möglichkeit ist. Paralleles Rechnen wird in vielen verschiedenen Bereichen wie z.B. in der Wirtschaft (Big Data, Data Mining...) und in der Forschung (Physik, Mathematik...) verwendet.
Inhaltsverzeichnis
- Einleitung
- Lattice Boltzmann Grundlagen
- Einführung
- Die Lattice Boltzmann Methode
- Parallelisierungmethoden
- OpenMP
- Grundlagen
- Vorteile und Nachteile von OpenMP
- MPI
- Definition
- Message-Passing-Modell
- Vorteile und Nachteile von MPI
- GPGPU
- Grundlagen
- Vor- und Nachteile von GPGPU
- OpenMP
- Parallelisierung von Lattice Boltzmann
- Mit MPI
- Mit OpenMP
- Mit GPGPU
Zielsetzung und Themenschwerpunkte
Dieses Dokument untersucht die Parallelisierung der Lattice-Boltzmann-Methode zur Lösung von Strömungssimulationen. Es beleuchtet die verschiedenen Parallelisierungstechniken wie OpenMP, MPI und GPGPU und deren Einsatz im Kontext der Lattice-Boltzmann-Methode. Ziel ist es, die Effizienz und Skalierbarkeit paralleler Algorithmen für die Lattice-Boltzmann-Simulation zu analysieren und die Vor- und Nachteile der einzelnen Methoden zu bewerten.
- Einführung in die Lattice-Boltzmann-Methode und deren Anwendung in der Strömungssimulation
- Parallelisierungstechniken: OpenMP, MPI und GPGPU
- Anwendung und Analyse der Parallelisierungstechniken im Kontext der Lattice-Boltzmann-Methode
- Bewertung der Effizienz und Skalierbarkeit paralleler Algorithmen für Lattice-Boltzmann-Simulationen
- Diskussion der Vor- und Nachteile der verschiedenen Parallelisierungstechniken
Zusammenfassung der Kapitel
Einleitung
Die Einleitung bietet eine Einführung in das Thema des parallelen Rechnens und dessen Bedeutung in verschiedenen Bereichen wie der Wirtschaft und Forschung. Sie erläutert die Motivation für die Anwendung von parallelen Algorithmen, z. B. zur Reduzierung der Rechenzeit, zur Bewältigung großer Datenmengen und zur Bewältigung komplexer Probleme.
Lattice Boltzmann Grundlagen
Dieser Abschnitt behandelt die Grundlagen der Lattice-Boltzmann-Methode. Er erklärt die diskrete Natur der Methode und die zugrundeliegende Lattice-Boltzmann-Gleichung. Weiterhin werden die Vor- und Nachteile der Methode im Vergleich zu anderen Methoden der Strömungssimulation dargestellt.
Parallelisierungmethoden
Dieses Kapitel befasst sich mit verschiedenen Parallelisierungstechniken, die für die Lattice-Boltzmann-Methode verwendet werden können. Es werden die Grundlagen, die Vor- und Nachteile und die Funktionsweise von OpenMP, MPI und GPGPU erläutert.
Schlüsselwörter
Lattice-Boltzmann-Methode, Parallelisierung, Strömungssimulation, OpenMP, MPI, GPGPU, Effizienz, Skalierbarkeit, Rechenzeit, Big Data, Data Mining.
- Quote paper
- Samory Gassama (Author), 2017, Paralleles Rechnen, Munich, GRIN Verlag, https://www.grin.com/document/443071