Metamodellierung von Simulationsmodellen. Methodenvergleich und prototypische Umsetzung


Masterarbeit, 2017

101 Seiten, Note: 1,5


Leseprobe

Inhaltsverzeichnis

1 Einleitung
1.1 Motivation
1.2 Zielsetzung
1.3 Methodik
1.4 Aufbau der Arbeit

2 Grundlagen der Simulation und Metamodellierung
2.1 Der Begriff Simulation
2.2 Grundlagen der Metamodellierung von Simulationsmodellen
2.3 Phasen der Simulation und Metamodellierung
2.4 Zweckmäßigkeit einer Metamodellierung
2.5 Versuchsplanung: Ein Überblick

3 Methoden zur Metamodellierung
3.1 Polynomiale Regression (PR)
3.2 Spline-Regression (SR)
3.3 Support-Vector-Machine (SVM)
3.4 Künstliche neuronale Netze (KNN)
3.5 Radiale Basisfunktion (RBF)
3.6 Kriging-Verfahren (KV)
3.7 Entscheidungsbäume (EB)
3.8 Zusammenfassung der Methoden

4 Prototypische Umsetzung und Gegenüberstellung
4.1 Kriterien für die Gegenüberstellung
4.2 Simulierte Systeme
4.3 Implementierung
4.4 Ergebnisse

5 Fazit und Ausblick

Literaturverzeichnis

Zusammenfassung

Technische Systeme zeichnen sich durch eine hohe Komplexität aus, weil sie zeit- und zu­fallsabhängige Systemgrößen oder vernetzte Wirkungszusammenhänge beinhalten. Nicht selten werden statt mathematischer bzw. analytischer Methoden Simulationsmodelle ver­wendet, um das betrachtete System über Simulationsexperimente zu studieren und zu evalu­ieren.

Wenn ein Simulationsmodell sehr komplex ist, kann der Rechenaufwand zum Ausführen der Experimente erheblich sein. Außerdem erschwert sich die Analyse und Interpretation der Simulationsergebnisse. In diesem Fall bietet ein Metamodell Vorteile, weil es die Ap­proximation von Input-Output-Verhältnissen auf der Basis der aus der Simulation erlangten Daten erlaubt. Dies bietet die Möglichkeit, Simulationsergebnisse zu prognostizieren und zu optimieren.

Angesichts dieses Potentials befasst sich diese Arbeit mit den Grundprinzipen der Metamo­dellierung und mit der Charakterisierung gängiger Methoden, wie dem Kriging-Verfahren, der Spline-Regression, der Support-Vector-Machine, der polynomialen Regression, der ra­dialen Basisfunktion, dem künstlichen neuronalen Netz und dem Entscheidungsbaum. Hier­für wurde auf die mathematischen Grundlagen, Lösungsverfahren, Vorteile, Nachteile und Anwendungsbeispiele eingegangen.

Die letzten vier Methoden wurden mit Hilfe einer prototypischen Umsetzung anhand von Kriterien, wie der Genauigkeit, Robustheit und Effizienz, miteinander verglichen. Hierbei stellte sich heraus, dass die polynomiale Regression den geringsten Fehler (RAAE) bei der Abbildung linearer Zusammenhänge aufweist. Für die Abbildung einer Nichtlinearität hat hingegen das künstliche neuronale Netz den niedrigsten Fehler gezeigt. Außerdem hat sich die Methode des Entscheidungsbaumes als robust erwiesen, weil sie mit der geringsten Stan­dardabweichung verschiedene Simulationsmodelle abgebildet hat.

Die Ergebnisse dieser Arbeit bestätigen die Nützlichkeit einer Metamodellierung im Sinne der Zeitlaufreduzierung. Während der Aufbau eines Metamodells und die Prognose von Si­mulationsergebnissen Millisekunden dauert, ist die Laufzeit von der gleichen Zahl an Simu­lationsexperimenten mindestens tausend mal größer. Bei dem künstlichen neuronalen Netz und der radialen Basisfunktion hat der Aufbau des Metamodells und die Prognose von Simu­lationsergebnissen vergleichsweise mehr Zeit im Anspruch genommen als die polynomiale Regression und der Entscheidungsbaum.

Abstract

Technical systems are highly complex because they involve time-dependent and random- dependent system variables or networked effects. Simulation is frequently used instead of mathematical or analytical methods in order to study and evaluate the system in question through simulation experiments.

If a simulation model is very complex, the computational effort to perform the experiments could be significant. Furthermore, the analysis and interpretation of simulation results are more difficult. In this case, a metamodel offers advantages because it allows the approxima­tion of input-output relations on the basis of the data obtained from the simulation. Therefore a metamodel offers the possibility to forecast and optimize simulation results.

This work deals with the basic principles of metamodelling and the characterization of com­mon methods, such as “Kriging method”, “spline regression”, “support vector machine”, “polynomial regression”, “radial base function”, “artificial neural network” and “decision tree”. For this purpose, the mathematical basis, solution methods, advantages, disadvantages and application examples were discussed.

The last four methods were compared with each other using a prototypical implementation based on criteria such as accuracy, robustness and efficiency. It turned out that the “polyno­mial regression” has the lowest error (RAAE) in the representation of linear relationships. In contrast, the “artificial neural network” generated the lowest error for non-linear models. Furthermore, the decision tree has proved to be robust because it had the lowest standard deviation among different simulation models.

The results of this work confirm the usefulness of metamodeling in the sense of time reduc­tion. While fitting a simulation model and forecasting simulation results takes milliseconds, the runtime of simulation experiments is at least a thousand times greater. Nevertheles, the methods “artificial neural network” and “radial basic function” needed more time, to fit a simulation model and to forecast new simulation results, in comparison to “polynomial re­gression” and “decision tree”.

Diese Arbeit wurde am 25.09.2017 in der Fakultät für Wirtschaftswissenschaften und Me­dien der Technischen Universität Ilmenau eingereicht.

Ich erkläre hiermit, dass ich diese Masterarbeit selbstständig ohne Hilfe Dritter und ohne Benutzung anderer als der angegebenen Quellen und Hilfsmittel verfasst habe. Alle den benutzten Quellen wörtlich oder sinngemäß entnommenen Stellen sind als solche einzeln kenntlich gemacht.

Diese Arbeit ist bislang keiner anderen Prüfungsbehörde vorgelegt worden und auch nicht veröffentlicht worden.

Ich bin mir bewusst, dass eine falsche Erklärung rechtliche Folgen haben wird.

Daniela Rocio Cely Hernandez

Abkürzungverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Tabellenverzeichnis

2.1 Auflösung von Versuchsplänen

3.1 Methoden der Metamodellierung und Literaturquellen

3.2 Anwendungsbeispiele einer Metamodellierung von Simulationsmodellen . .

3.3 Datensatz für ein Modell erster Ordnung

4.1 Eingangs-und Zielgrößen der aufzubauenden Metamodelle

4.2 Zusätzlich verwendete R-Bibliotheken

4.3 Methoden zur Metamodellierung und ihre RAAE

4.4 Standardabweichung des RAAE bei Steigerung des stochastischen Verhaltens

4.5 Laufzeit der Simulationsmodelle

Abbildungsverzeichnis

2.1 Metamodellierung für eine Zielgröße und zwei Eingangsgrößen

2.2 Simulation und Metamodellierung

2.3 Globale und lokale Optimierungsstrategie

2.4 Darstellung des Generalisierungsfehlers und Anpassungsfehlers

2.5 Alternativen zur Central Composite Design

3.1 Grafische Darstellung von einem Modell erster Ordnung

3.2 Grafische Darstellung eines Modells mit Interaktionen

3.3 Response-Surface-Methodology

3.4 Polynom 14. Ordnung g(x) als Approximation für f(x)

3.5 Verlustfunktion für SVM

3.6 Einzelneuron und KNN mit einer Ebene

3.7 Mehrschichtiges Netz

3.8 RBF in der Darstellung eines künstlichen neuronalen Netzes

3.9 Partitionen und CART

3.10 Methoden zur Metamodellierung von Simulationsmodellen und ihre Eigen­schaften

3.11 Methoden zur Metamodellierung von Simulationsmodellen und ihre Eigen­schaften

4.1 Simulation eines Ausfallsicherheitssystems

4.2 Simulation eines Systems mit flexibel einsetzbaren Mitarbeitern

4.3 Simulation der Losgröße in einem Job-Shop-Produktionssystem

4.4 Durchschnittlicher RAAE für Metamodelle der „Ausfallsicherheit“

4.5 Durchschnittlicher RAAE für Metamodelle vom Simulationsmodell „flexi­bel einsetzbare Mitarbeiter“

4.6 Durchschnittlicher RAAE für Simulationsmodell „Losgröße in einem Job­Shop-Produktionssystem“

4.7 Durchschnittlicher RAAE für Metamodelle von nichtlinearen Problemen . .

4.8 Durchschnittlicher RAAE und Datenumfang

4.9 Durchschnittliche Rechenzeit für den Aufbau und die Prognose eines Meta­modells [ms]

Formelverzeichnis

3.1 Mathematische Modelle im Allgemeinen

3.2 Modell erster Ordnung

3.3 Ermittlung der Parameter ß bei einer Regression

3.4 Modell zweiter Ordnung

3.5 Gradientenverfahren

3.6 Matrixform für ein Modell zweiter Ordnung

3.7 Kritischer Punkt für ein Modell zweiter Ordnung

3.8 Allgemeine Form einer Spline-Funktion

3.9 Optimierungsproblem für die Erzeugung von Smoothing-Splines

3.10 Minimierungsproblem für die Erzeugung von SVM

3.11 Verlustfunktion

3.12 Allgemeine Form einer Support-Vector-Machine

3.13 Ermittlung der Parameter af und ai für SVM

3.14 Funktionszusammenhang eines Neurons

3.15 Funktionszusammenhang einer Schicht

3.16 Radiale Basisfunktion

3.17 Gauß-Funktion

3.18 Ermittlung der Parameter w in der radialen Basisfunktion

3.19 Kriging-Modell

3.20 Ermittlung der räumlichen Korrelation für das Kriging-Verfahren

3.21 Gaußsche Korrelationsfunktion

3.22 Schätzung von y für das Kriging-Verfahren

3.23 Gauß-Funktion

3.24 Matematische Darstellung eines Entscheidungsbaumes

3.25 Schätzung der Konstanten Cm

4.1 Ermittlung des RAAE

4.2 Nichtlineare Funktionen

1 Einleitung

1.1 Motivation

Technische Systeme in der Wirtschaft, im Gesundheitswesen, im Verkehrswesen usw. zeich­nen sich durch eine hohe Komplexität aus, weil sie zeit- und zufallsabhängige Systemgrößen oder vernetzte Wirkungszusammenhänge beinhalten. Diese Faktoren erhöhen die Komple­xität des Systems so drastisch, dass mathematische bzw. analytische Methoden nicht ange­wandt werden können, um die Systeme zu studieren und zu evaluieren. Dies erschwert nicht nur die Überschaubarkeit, sondern auch die Planung, Realisierung und den Betrieb dieser technischen Systeme [VDI08, S. 2].

Die Simulation stellt einen alternativen Ansatz dar. Sie erlaubt das Nachbilden eines Sys­tems und die Aufstellung eines Modells, mit dem Experimente durchgeführt werden können [VDI08, S. 2]. Durch eine Simulation ist es möglich, ein Modell numerisch bzw. computer­gestützt zu evaluieren. Dies mit dem Zweck, die Eigenschaften und Verhaltensweisen des Modells zu studieren und eventuell zu verbessern [La01, S. 1].

Die Tatsache, dass die Simulation lediglich eine Nachbildung des Originals ist, ermöglicht es, mit Modellgrößen zu experimentieren oder verschiedene Szenarien auszuprobieren. Dies hat den Vorteil, dass man keine Störungen im realen System verursacht. [Fr96, S. 3]. Auf diese Weise kann nach Abschluss einer Simulationsstudie festgestellt werden, welche Pa­rameter im nachgebildeten Modell zu einer gewünschten Zielgröße führen. Wenn diese Er­gebnisse in die Realität übertragbar sind, kann die Leistung des Systems durch die beste Parameterauswahl verbessert werden [MK11, S. 41].

Die Simulationen beinhalten in diesem Sinne nicht nur den Aufbau und die Ausführung eines Simulationsmodells, sondern auch die Analyse von Simulationsexperimenten. Es soll eine Extraktion von Informationen aus den Versuchsergebnissen stattfinden, um Wissen über das Verhalten des Systems unter verschiedenen Szenarien zu erwerben [Fr96, S. 8].

Wenn das Simulationsmodell sehr komplex ist, kann der Rechenaufwand zum Ausführen der Experimente erheblich sein. In diesem Fall bietet ein Metamodell Vorteile. Es erlaubt die Approximation von Input-Output-Verhältnissen auf der Basis der aus der Simulation er­langten Daten. Dies geschieht mit geringem Rechenaufwand [Ba15] und hat als Konsequenz, die Möglichkeit der Optimierung von unzähligen Systemkonfigurationen mit angemessener Ressourcenbindung [Fr96, S. 9].

Durch eine Metamodellierung löst sich die Dynamik des Modells von der Simulation, um ein besseres Verständnis des Systems zu erlangen. Ein Metamodell bildet nur das Wesentli­che ab. Es dient der Vereinfachung des Modells. Demzufolge ist die Metamodellierung ein praktisches, aber robustes Werkzeug für die Interpretation und Analyse hochkomplexer Mo- delle [Fr96, S. 9].

Außerdem kann eine Metamodellierung die Verallgemeinerung von Ergebnissen unterstüt­zen. So kann durch ein Metamodell ein gewisses Musterverhalten entdeckt werden, das auf andere Systeme des gleichen Typs übertragbar ist [Fr96, S. 9].

Nicht nur aufgrund ihrer Anwendungsmöglichkeiten ist die Metamodellierung ein spannen­des Forschungsfeld, sondern auch, weil sie von der Weiterentwicklung im Bereich des sta­tistischen Lernens, maschinellen Lernens und des Data Mining profitiert. Diese Disziplinen liefern Methoden, die in der Metamodellierung angewandt werden können.

Das Thema Metamodellierung wird aktuell intensiv erforscht. Dabei werden Methoden von verwandten Disziplinen angepasst und neue Algorithmen aufgestellt, um bessere Ergebnisse zu erzielen. Obwohl der Begriff Metamodell bereits in den 70er Jahren von Kleijnen [Kl75] eingeführt wurde, spielt die Metamodellierung heute nach wie vor eine sehr wichtige Rolle im Bereich der Simulation.

1.2 Zielsetzung

In diesem Zusammenhang besteht der Bedarf, die alten Grundlagen der Metamodellierung und die neusten Erkenntnisse der Forschung auf strukturierte Weise zusammenzuführen. Neue Informationen aus anderen Forschungsfeldern können so aufgenommen und vereint werden. Außerdem können Lücken erkannt werden, die als Thema für die weitere Forschung interessant wären. Aus diesem Grund ist das erste Ziel dieser Arbeit, eine Strukturierung der aktuellen Literatur vorzunehmen. Dabei sollte Klarheit geschaffen werden über:

- die Grundprinzipien der Simulation und der Metamodellierung
- Methoden zur Metamodellierung: ihre mathematischen Grundlagen, Lösungsverfah­ren, Vorteile, Nachteile und Anwendungsbeispiele
- Ähnlichkeiten und Unterschiede zwischen den betrachteten Methoden zur Metamo­dellierung

Das zweite Ziel dieser wissenschaftlichen Arbeit ist der Vergleich ausgewählter Methoden mit Hilfe der prototypischen Umsetzung von Simulationsmodellen. Auf Basis von Simu­lationsergebnissen werden unterschiedliche Metamodelle nach unterschiedlichen Verfahren aufgestellt. Diese Metamodelle werden für die Prognose von neuen Simulationsergebnissen verwendet. Dabei ist es das Ziel, Erkenntnisse über die Adäquatheit dieser Methoden zu gewinnen.

1.3 Methodik

Um dieser Zielsetzung gerecht zu werden, lehnt sich die Literaturrecherche an die Methodik von Webster und Watson [WW02] an. Dies ermöglicht eine logische Suche und Kategorisie- rung von Literaturquellen und erleichtert daher den Aufbau einer zusammenhängenden und zielführenden Abhandlung.

Im Praxisteil der Zielstellung wird die prototypische Umsetzung von Simulationsmodel­len durchgeführt. Anhand dessen sollen relevante Methoden für die Metamodellierung auf­gebaut und gegenübergestellt werden. Hierbei werden Vergleichskriterien für die Modelle festgelegt, die einen Einfluss auf die Adäquatheit dieser Methoden haben.

1.4 Aufbau der Arbeit

Um eine inhaltliche Strukturierung vorzunehmen, wurde diese Arbeit in fünf Kapitel geglie­dert. Nach der Einleitung wird im zweiten Kapitel das Thema Metamodellierung eingeführt. Hierbei wird auf den Begriff der Simulation und Metamodellierung eingegangen. Ebenfalls werden die Phasen und Zweckmäßigkeit einer Metamodellierung behandelt. Darauf folgend werden im dritten Kapitel der aktuelle Stand der Forschung bezüglich der Methoden zur Metamodellierung und deren Eigenschaften behandelt. Hierbei wird speziell auf die mathe­matischen Grundlagen, die Lösungsverfahren, die Vorteile, die Nachteile und die Anwen­dungsbeispiele dieser Methoden eingegangen. Im vierten Kapitel werden die genaue Metho­dik, Analyse und Ergebnisse der Gegenüberstellung von Methoden zur Metamodellierung präsentiert. Hierbei werden bestimmte Eigenschaften verglichen, um eine Aussage über die Adäquatheit dieser Methoden zu treffen. Die Inhalte dieser Arbeit und die Aussichten, die sich daraus ableiten lassen, werden abschließend im Fazit und Ausblick zusammengefasst.

2 Grundlagen der Simulation und Metamodellierung

In diesem Kapitel werden Begrifflichkeiten der Metamodellierung präsentiert, worauf die nächsten Kapitel aufbauen werden. Erstens werden die Begriffe Simulation und Metamo­dellierung definiert. Anschließend wird der Zusammenhang zwischen Simulationsmodell und Metamodell thematisiert. Danach wird auf die Phasen einer Simulationsmodellierung und Metamodellierung eingegangen. Abschließend werden sowohl die Ziele einer Meta­modellierung behandelt, als auch essenzielle Konzepte und Methoden der Versuchsplanung vorgestellt, die zu einer effizienten Datenerhebung in der Metamodellierung dienen.

2.1 Der Begriff Simulation

Der Verband deutscher Ingenieure (VDI) definiert Simulation in seiner Richtlinie folgender­weise:

„Simulation ist das Nachbilden eines Systems mit seinen dynamischen Prozessen in einem experimentierbaren Modell, um zu Erkenntnissen zu gelangen, die auf die Wirklichkeit über­tragbar sind. Insbesondere werden die Prozesse über die Zeit entwickelt.

Im weiteren Sinne wird unter Simulation das Vorbereiten, Durchführen und Auswerten ge­zielter Experimente mit einem Simulationsmodell verstanden“ [VDI08, S. 2].

In dieser Definition nimmt der VDI explizit auf dynamische Prozesse Bezug. An dieser Stel­le ist es wichtig anzumerken, dass man eine Simulation normalerweise nur bei komplexen Systemen verwendet, die nicht durch mathematisch-analytische Methoden abgebildet wer­den können. Diese Systeme zeichnen sich dadurch aus, dass sie zeit- und zufallsabhängige Systemgrößen als auch stark vernetzte Wirkungszusammenhänge aufweisen [VDI08, S. 2]. Wie bereits in der Definition beschrieben, erfolgt eine Simulation über den Aufbau eines Modells. Hierbei werden gewisse Annahmen über die Funktionsweise eines realen Systems getroffen und getestet. Diese Annahmen, die in der Regel als mathematische oder logische Zusammenhänge formuliert werden, stellen die Grundlage des Modells dar [La01, S. 1].

Ein Modell ist also: „ [...] eine abstrahierte Abbildung eines zu untersuchenden Systems, das entweder bereits existiert oder künftig entstehen soll“ [MK11, S. 13]. Diese abstrahierte Abbildung wird anhand von Eingangs- und Ausgangsgrößen aufgebaut, welche die Dyna- mikdes Systems widerspiegeln sollen [Fr96, S. 13].

Der Aufbau eines Modells beinhaltet die Analyse, Vereinfachung und Approximation des Systems. Das heißt, dass das System mit einem niedrigeren Detaillierungsgrad abgebildet wird. Ein Modell entspricht nicht hundertprozentig dem Original, allerdings imitiert es des­sen Zeitentwicklung und seine wichtigsten Eigenschaften [La01].

Im weiteren Verlauf bezieht sich der VDI auf den experimentierbaren Charakter eines Simu- lationsmodells, wobei ein Simulationsexperiment folgenderweise definiert wird.

„Ein Simulationsexperiment ist die gezielte empirische Untersuchung des Verhaltens eines Modells durch wiederholte Simulationsläufe mit systematischer Parametervariation oder Strukturvariation“ [VDI08, S. 3].

Aus der Tatsache, dass eine Simulation auf dem Aufbau eines Modells beruht, leitet sich der Vorteil ab, dass die Simulation das Experimentieren mit Sachverhalten erlaubt, mit denen im realen System keine Experimente durchgeführt werden können. So zum Beispiel weil das System noch nicht existiert oder weil die Durchführung von Experimenten nicht zweckmä­ßig ist oder sogar negative Konsequenzen haben könnte [Ce91, S. 10].

Simulation geht über den Aufbau des Modells hinaus. Sie beinhaltet das nachfolgende Expe­rimentieren mit dem konstruierten Modell, um Erkenntnisse zu gewinnen und ein Verständ­nis über das Verhalten des Modells zu erlangen [VDI08, S. 2]. Darüber hinaus ist es möglich, eine Simulation für das Design oder Optimierung eines Systems anzuwenden. Beispielswei­se können im Rahmen einer Simulationsstudie über sukzessive Experimente die Parameter festgestellt werden, welche im nachgebildeten Modell zu einer gewünschten Zielgröße füh­ren [MK11, S. 41].

Laut der Definition des VDI sind die Ergebnisse einer Simulationsstudie nur brauchbar, wenn sie auf die Realität übertragbar sind. Deshalb sollte die korrekte Überführung des kon­zeptionellen Modells in das Simulationsprogramm überprüft werden. Ebenfalls sollte eine Überprüfung der hinreichenden Übereinstimmung von Modell und Originalsystem erfolgen [La01, S. 302].

Zusammenfassend kann behauptet werden, dass die Simulation eine Alternative zu den ma­thematischen oder analytischen Methoden ist. Sie ist ein Werkzeug, das erlaubt dynami­sche Systeme zu analysieren, zu gestalten und zu verbessern, indem Experimente an einem Modell durchgeführt werden, dessen Eigenschaften und Dynamik, die des Originalsystems ähneln. Hierbei wird die Annahme getroffen und durch eine Verifikation und Validierung überprüft, dass die Ergebnisse der Simulation in die Realität übertragbar sind.

2.2 Grundlagen der Metamodellierung von Simulationsmodellen

Eine Metamodellierung beinhaltet den Aufbau eines vereinfachten Modells aus den Simula­tionsergebnissen, die mit einer moderaten Anzahl an Experimenten bzw. Läufen gewonnen wurden. Die approximierten Input-Output-Verhältnisse, welche das Metamodell umfasst, können für die Prognose von nicht experimentierten Szenarien mit geringem Rechenauf­wand genutzt werden. Dies spart lange und speicherintensive Läufe am Simulationsmodell und stellt einen großen Vorteil für die Implementierung und das Verständnis hochkomplexer Modelle dar [Me01, S. 13].

Unter einem Simulations-Metamodell ist ein vereinfachtes mathematisches Modell zu ver­stehen, welches das Verhalten des Simulationsmodells hinsichtlich der betrachteten Zielgrö­ßen und Eingangsgrößen approximieren soll [Ni94, S. 400].

Durch ein Metamodell löst sich die Dynamik des Modells von der Simulation. Denn statt des Simulationsmodells wird das Metamodell für die Bewertung von zusätzlichen Szenarien oder Experimenten verwendet [Fr96, S. 9].

Außerdem bildet ein Metamodell nur das Wesentliche ab und dient daher der Vereinfachung des Modells. Aus diesem Grund ist es ein praktisches aber robustes Werkzeug für die Inter­pretation und Analyse hochkomplexer Modelle [Fr96, S. 9].

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.1: Metamodellierung für eine Zielgröße und zwei Eingangsgrößen [RBN12]

In Abbildung 2.1 wird bildlich dargestellt, inwiefern die Konstruktion eines Metamodells zur Zeitlaufverkürzung und zum Verständnis des Systems dient. In diesem Fall werden le­diglich zwei Variablen bzw. Eingangsgrößen betrachtet, die in Zusammenhang mit einer Zielgröße stehen. Ziel dieser Simulationsstudie ist es, den Wert der Variablen eins und zwei zu ermitteln, der zu einem maximalen Zielgrößenwert (Response) führt. Im Rahmen der Ver­suchsplanung wird vorgesehen, dass nur gewisse Kombinationen aus den Variablen eins und zwei evaluiert werden. Anschließend wird das Simulationsmodell für die Durchführung der Experimente verwendet. Daraus ergibt sich ein Zielgrößenwert für jede geplante Kombinati­on. Diese Input-Output-Verhältnisse stellen die Grundlage für das Metamodell dar [RBN12]. Durch das Metamodell kann die Zielgröße geschätzt werden, die für weitere Variablenkom­binationen zu erwarten wären, ohne einen aufwendigen Simulationslauf zu starten. Da die Laufzeit eines Metamodells in der Regel kürzer ist als die Laufzeit eines Simulationsmo­dells, erlaubt eine Metamodellierung eine schnellere Antwort [BKF15, S. 65].

In der rechten Seite der Abbildung 2.1 wird ein Metamodell als dreidimensionale Fläche dargestellt. Dabei können sowohl hohe und tiefe Bereiche, als auch die dazugehörige Varia- blenkombinationen erkannt werden.

Die Visualisierung eines Metamodells ist ab drei Variablen nicht mehr möglich, jedoch hilft der mathematische Ausdruck eines Metamodells dabei, den Einfluss der Variablen auf die Zielgröße besser zu verstehen [RBN12].

Über ein Metamodell können ebenfalls allgemeine Tendenzen und Zusammenhänge zwi­schen Input und Output herausgefunden werden, die ohne eine mathematische Darstellung sehr schwer nachvollziehbar wären [RBN12].

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.2: Simulation und Metamodellierung (in Anlehnung an [Ni94])

In der Abbildung 2.2 ist das allgemeine Schema einer Metamodellierung vorgestellt. Durch Modellierung entsteht ein Simulationsmodell, welches das reale System mit einem festge­legten Abstraktionsgrad abbildet. Hier wird das reale System und das Simulationsmodell als „Blackbox“ dargestellt. Dementsprechend gehen Eingänge sowohl in das reale System, als auch in das Simulationsmodell hinein, während Zielgrößen aus der Simulation und realem System herausfließen. Das Simulations-Metamodell soll so konstruiert werden, dass des­sen Ergebnisse die Ergebnisse der Simulation approximieren, wenn die bei der Simulation verwendeten Eingangswerte eingesetzt werden. Dies kann zum Beispiel über ein iterativ­inkrementelles Vorgehen erreicht werden, bis die Differenzbewertung einem gewissen Genauigkeitsgrad genügt [Ni94].

Darüber hinaus ist in dieser Abbildung ersichtlich dargestellt, dass ein Metamodell die durchgeführte Simulation und nicht direkt das Originalsystem abbildet [Ni94].

Metamodell und Modell stehen in einer Klasse-Instanz-Beziehung zueinander. Das heißt, dass ein Metamodell die Ergebnisse der Simulation abbildet, während das Simulationsmo­dell die Elemente der wirklichen Welt beschreibt [St12].

Sofern eine sorgfältige Überprüfung des Modells und Metamodells stattfindet, sind die Er­gebnisse einer Simulationsstudie (inklusive Metamodellierung) in die Realität übertragbar. Eine wirksame Verifikation und Validierung verhindert, dass fehlerhafte Erkenntnisse ge­wonnen werden, die zur Fehlentscheidungen führen [RSW08].

Da Simulation und Metamodellierung in einem sehr engen Zusammenhang stehen, ist eine reibungslose Kopplung zwischen diesen Phasen ein Erfolgsfaktor im Rahmen eines Simula­tionsprojekts.

2.3 Phasen der Simulation und Metamodellierung

Bei einem Simulationsprojekt, das Metamodellierung beinhalten soll, können typischerwei­se folgende Phasen differenziert werden [Fr96].

Problemformulierung

In der Problemformulierungsphase wird sowohl die Zielsetzung und der Umfang der Simu­lationsstudie definiert, als auch die Grenze des betrachteten Systems identifiziert [Fr96, S. 6].

In dieser Phase sollte ebenfalls evaluiert werden, ob eine Simulation die beste Methode für das betrachtete Problem ist [Ba04, S. 14].

Systemanalyse und Aufbau des konzeptionellen Modells

Hierbei wird das System erforscht und analysiert, um Eingangs- und Ausgangsgrößen zu identifizieren. Es werden ebenfalls Leistungseigenschaften erkannt, welche die Effektivität des Systems beeinflussen [Fr96, S. 6]. Daraus ergibt sich ein konzeptionelles Modell, wel­ches das System in abstrahierter Form beschreibt.

Der Aufbau eines konzeptionellen Modells gilt als die Kunst, die wichtigsten Eigenschaften des Systems zu abstrahieren, Annahmen zu selektieren und so zu modifizieren bis eine ge­wisse Komplexität erreicht wird, die für die Problemstellung angemessen ist [Ba04, S. 14]. Zu dieser Phase gehört ebenso die Datenerhebung. Hierbei werden aus dem realen Sys­tem Daten gesammelt und analysiert, anhand dessen die getroffenen Annahmen validiert werden. Falls Abweichungen zwischen Modell und Originalsystem Vorkommen, kann das Modell dementsprechend sukzessiv angepasst werden. Die Art und Weise dieser Anpassung wird ist in verschiedenen Vorgehensmodellen systematisiert, wie im Beitrag von Rabe et al. dokumentiert ist [RSW08, S. 29-32].

In der Regel werden die gesammelten Daten an die theoretischen Wahrscheinlichkeitsver­teilungen angepasst, um Systemparameter wie zum Beispiel Bedienungs- oder Ankunftszeit zu bestimmen [Fr96, S. 6].

Aufbau des Simulationsmodells

Dieser Schritt beinhaltet sowohl die Selektion eines Simulationsprogramms, die Umwand­lung des konzeptionellen Modells in ein vom Computer erkennbares Format oder in eine Programmiersprache, als auch die Verifikation und Validierung des implementierten Simu­lationsmodells [Fr96, S. 6].

Bei der Verifikation wird geprüft, ob das konzeptionelle Modell korrekt in das gewählte Si­mulationsprogramm überführt wurde. Hingegen wird bei der Validierung die Übereinstim­mung vom Originalsystem und dem konzeptionelles Modell überprüft [RSW08, 14-15]. Von Vorteil ist die Durchführung einer frühen Verifikation und Validierung. Dafür sind verschie­dene Strategien und Vorgehensmodelle entwickelt worden, die vorgeben, in welchen Phasen eine Überprüfung vorgenommen werden muss. In diesem Zusammenhang ist aufgrund de­ren Wichtigkeit auf die Beiträge von Sargent [Sa98], Law [La07] und den VDI [VDI08] zu verweisen.

Aufbau des Metamodells

Die Konstruktion eines Metamodells schließt folgende Aspekte ein [BM06, KS00].

- Festlegung der Ziele einer Metamodellierung:

In dieser Phase werden die Ziele der Metamodellierung festgelegt. Diese können sich auf das Verständnis des Originalsystems, die Prognose einer neuen Eingangskonfigu­ration, die Optimierung des Systems, die Unterstützung der Verifikation und Validie­rung des Simulationsmodells oder die Formalisierung des Modells beziehen, wie im nächsten Abschnitt detailliert beschrieben wird [BM06, KS00].

- Planung des Metamodells:

Die Eingangsgrößen und Zielgrößen, die für den Aufbau des Metamodells benötigt werden, sollen identifiziert und charakterisiert werden. Diese müssen verständlicher­weise auf die Ziele des Metamodells ausgerichtet sein. Die Eingangs- und Ausgangs­großen des Simuationsmodells können zu diesem Zweck als Orientierung genommen werden. Dennoch ist es legitim, eine tiefere Abstraktion in der Metamodellierung vor­zunehmen und weniger Eingangsgrößen und Zielgrößen zu betrachten [KS00]. Darüber hinaus soll für die Planung eines Metamodells ein Designbereich festgelegt werden. Dieser beschreibt den Raum aller Eingangsgrößen, die für die Simulations­studie und den Aufbau des Metamodells relevant sind. Diese Festlegung ist logischer­weise eine Basis für die Erstellung des Versuchsplans und die darauffolgende Durch­führung von Simulationsläufen [KS00, S. 16].

Außerdem sollte der Designbereich für die Anwendung des Metamodells berücksich­tigt werden. Werte außerhalb dieses Bereichs, die vom Anwender ins Modell einge­setzt werden, führen zu nicht gültigen Ergebnissen [Ce91, S. 6].

Die erforderliche Prognosegenauigkeit des Metamodells in Hinsicht auf das Simulati­onsmodell und Originalsystem soll festgestellt und vorausgesetzt werden. Diese dient am Ende der Simulationsstudie als Instrument der Überprüfung, weil der Entwickler des Metamodells verifizieren kann, ob die erwartete Prognosegenauigkeit erreicht ist. [KS00, S. 17].

Die akzeptable Genauigkeit im Bezug auf das Simulationsmodell und System kann anhand von zwei Intervallen ausgedrückt werden. Diese können sogar unterschied­liche Bereiche einnehmen. Für ihre Festlegung sind die Ziele des Metamodells eine sehr gute Orientierung [KS00, S. 17].

Die Genauigkeit des Metamodells wird anhand von bestimmten Metriken abgewogen. In diesem Sinne gilt es, diese Metriken (zum Beispiel den mittleren oder den absoluten Fehler) festzulegen, um die Qualität des Metamodells einzuschätzen [KS00, S. 17].

- Auswahl einer Metamodellform:

Anhand der Informationen aus der Phase „Systemanalyse und Aufbau des konzep­tionellen Modells“ werden eine oder mehrere Metamodell-Formen ausgewählt, mit denen die Ergebnisse der Simulation abgebildet werden [Fr96, S. 7].

- Versuchsplanung und Durchführung von Simulationsexperimenten:

Diese Aufgaben werden typischerweise als Bestandteil einer Simulationsstudie einge­stuft. Dennoch sind sie als Aspekte für den Aufbau eines Metamodells zu berücksich­tigen, weil sie im direkten Zusammenhang zur Metamodellierung stehen [BM06].

Die Versuchsplanung1 ist eine Methodik zur systematischen Planung und statistischen Auswertung von Versuchen bzw. Einzelexperimenten. Hierbei ist das Ziel, mit gerin-

gem Aufwand den funktionalen Zusammenhang zwischen den Eingangsgrößen und den Zielgrößen zu ermittelt. Die typische Fragestellung der Versuchsplanung betrifft den benötigten Versuchsumfang, der erforderlich ist, um die festgelegte Prognosege­nauigkeit zu erreichen [SvBH10].

In der Simulation werden in der Phase der Versuchsplanung unter Berücksichtigung der Simulationsziele sowohl die Lauflänge, die simuliert werden muss (z.B die 8 Stunden eines Werktags), die Anzahl an Replikationen, die für eine geeignete statisti­sche Auswertung notwendig sind, als auch die Methode zur Versuchsplanung definiert [Fr96].

Mit dem festgelegten Versuchsplan und dem Simulationsmodell wird die Simulation unter definierten Restriktionen durchgeführt [Fr96].

- Anpassung des Metamodells an die Simulationsergebnisse:

Die ausgewählten Modelle werden, an die aus der Simulation erzeugten Daten, ange­passt. Aus diesem Prozess ergeben sich die geschätzten Parameter des Metamodells [BM06, S. 539].

- Validierung des Metamodells:

Hierbei wird die Adäquatheit der Modelle anhand gewisser Metriken bewertet. Bei­spiele dafür sind der mittlere und der absolute Fehler. Diese sollen reflektieren, wie genau das Metamodell das Simulationsmodell approximiert. In der Literatur wird die­ser Vorgang oftmals „innere Validierung“ bezeichnet [Fr96].

- Optimierung anhand einer Metamodellierung:

Die Zielsetzung von vielen Simulationsstudien schließt die Optimierung einer be­stimmten Zielgröße ein. Hier werden die Eingangsgrößen gesucht, die ein Optimum ergeben. Je nach Systemeigenschaften ist eine Minimierung oder eine Maximierung der betrachteten Zielgröße erwünscht.

Wie in der Abbildung 2.3 zu sehen ist, stehen grundsätzlich zwei Strategien für die Optimierung eines Systems anhand einer Metamodellierung zur Verfügung: die glo­bale und die lokale Strategie [BM06].

Bei der globalen Strategie erfolgt zuerst der Aufbau des Metamodells für den gesam­ten zulässigen Bereich, der sich aus dem Designbereich und den Restriktionen bestim­men lässt, und danach die Suche nach einem Optimum. Ist das Modell nicht geeignet oder ist die Optimierung nicht zufriedenstellend, dann wird die Experimentplanung oder der Metamodell-Typ geändert. Diese Vorgehensweise ist in der Abbildung 2.3 auf der rechten Seite im Detail dargestellt [BM06].

Im Gegensatz dazu wird bei der lokalen Strategie sowohl für den Aufbau des Meta­modells als auch für die Optimierung nur ein Teil des zulässigen Bereichs (Region) betrachtet. Ist das konstruierte Modell oder das Ergebnis der Simulation nicht zufrie­denstellend, dann kommt eine weitere Region oder eine andere Metamodell-Form in Betracht. Diese Vorgehensweise ist in der Abbildung 2.3 auf der linken Seite im Detail dargestellt [BM06].

Gewisse Metamodell-Typen eignen sich sehr gut für eine lokale Strategie. Metamodel­le mit Polynomen geringen Ordnungsgrades, wie lineare oder quadratische Modelle, werden normalerweise dafür verwendet, um die Optimierungsrichtung zu suchen. Die Response-Surface-Methodology könnte im Sinne der lokalen Strategie ebenfalls hilf­reich sein [BM06, S. 546-547].

An dieser Stelle stellt sich die Frage, wie groß die Region für die lokale Strategie sein soll. Dies ist für die Präzision und den Erfolg des Metamodells kritisch zu sehen. Wenn die Region zu groß ist, sind Polynome geringen Ordnungsgrades nicht angemessen. Ist die Region zu klein, dann tendieren die Parameter des Metamodells zu null [BM06, S. 548].

Bei der globalen Strategie verwendet man sehr selten Metamodelle mit Polynomen geringen Ordnungsgrades bzw. die Response-Surface-Methodology. Stattdessen kom­men die Spline-Regression, das künstliche neuronale Netz, das Kriging-Verfahren oder die radiale Basisfunktion2 in Frage. Diese Methoden werden in dem nächsten Kapitel ausführlich behandelt [BM06, S. 548].

- Leistung im Originalsystem validieren:

Ziel dieser Phase ist einzuschätzen, wie genau das Metamodell das Originalsystem approximiert. Dies wird in der Literatur externe Validierung bezeichnet und ist neben der internen Validierung eine notwendige Überprüfung der Adäquatheit des Metamo­dells [Fr96, S. 82].

Die Methoden, die für die externe Validierung eines Metamodells und für die Validie­rung eines Simulationsmodells angewandt werden, sind sehr ähnlich oder gegebenen­falls die gleichen. Beispielsweise können die Ergebnisse eines Metamodells mit histo­rischen Daten verglichen werden, wie es bei Simulationsmodellen in der Praxis üblich ist [Fr96, S. 85]. Andere Methoden, die im Rahmen der Verifikation und Validierung verwendet werden, wie z.B. Animation, Begutachtung und Sensitivitätsanalyse, sind unter anderem im Beitrag von Rabe et al. [RSW08] ausführlich beschrieben.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.3: Globale und lokale Optimierungsstrategie (in Anlehnung an [BM06])

2.4 Zweckmäßigkeit einer Metamodellierung

Eine Metamodellierung bietet verschiedene Vorteile und kann zu differenten Anwendungs­zwecken verwendet werden. Neben der Laufzeitverkürzung sind folgende Aspekte zu er­wähnen:

Besseres Verständnis über das Simulationsmodell

Dadurch, dass ein Metamodell eine umfassendere Anzahl an Experimenten mit weniger Re­chenaufwand ermöglicht, können Entwickler bzw. Anwender des Metamodells ein besseres Verständnis über den Einfluss von bestimmten Eingangsgrößen auf eine Zielgröße erlangen oder beispielsweise den Designbereich erkunden [WS06, S. 4].

Ein Metamodell bildet nur die wesentlichen Informationen des Simulationsmodells bzw. des Systems ab. Dies führt zu einer Komplexitätsreduzierung, was verständlicherweise die In- terpretierbarkeit hochkomplexer Modelle verbessert [Fr96, S. 9].

Kleijnen und Sargent [KS00] unterscheiden drei Verständnisstufen, welche die Entwickler je nach Zielstellung erzielen können.

- Das erste Niveau zeichnet sich dadurch aus, dass der Entwickler durch den Einsatz des Metamodells herausfinden kann, ob die Zielgröße bei einer Erhöhung einer Ein­gangsgröße ansteigt oder fällt. Allgemein kann die Aussage getroffen werden, dass eine einfache Regressionsanalyse dieser Aufgabe genügt [KS00, S. 18].
- Das zweite Niveau bezeichnet das Verständnis darüber, welche Eingangsgrößen des Metamodells relevant sind und welche vernachlässigt werden können. Ein Polynom ersten Grates könnte gute Ergebnisse liefern. Allerdings könnten raffiniertere Techni­ken für diesen Zweck in Betracht gezogen werden [KS00, S. 18].
- Bei dem dritten Niveau handelt sich um das Verständnis über die Auswirkung ver­schiedener Eingangsgrößen auf eine Zielgröße. Für diesen Zweck können Polynome der ersten und zweiten Ordnung in Kombination mit Transformationen der Form ei­nes Logarithmus log(x) oder einer Kehrwertfunktion 1/x angewandt werden [KS00, S. 18].

Der Metamodell-Typ sollte verständlicherweise so gewählt werden, dass er mit der Zielset­zung der Metamodellierung übereinstimmt [KS00, S. 18].

Wenn der Entwickler des Metamodells sich ein besseres Verständnis des Simulationsmo­dells als Ziel setzt, sollte er wenn möglich Polynome niedrigen Grades als Metamodell-Typ bevorzugen. Diese Modelle sind einfacher nachzuvollziehen als andere Techniken, wie die Spline-Regression oder die künstlichen neuronalen Netze, und sie können in den meisten Fällen graphisch dargestellt werden [KS00, S. 18].

Wenn beispielsweise das Ziel der Metamodellierung das Verständnis der inneren Zusam­menhänge betrifft, dann ist die Wahl eines Polynoms geeigneter als die einer Spline-Regression. Ist der Erkenntnisgewinn der inneren Wechselwirkungen weniger relevant und der Aufbau eines komplexen Modells erwünscht, dann ist die Spline-Regression hingegen eine sehr gu­te Wahl. Welche Methode die beste Entscheidung ist, hängt immer von der Zielsetzung ab [KS00, S. 18].

Prognose

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.4: Darstellung des Generalisierungsfehlers und Anpassungsfehlers (in Anlehnung an [SSG02])

Ein Metamodell dient zur Prognose des Simulationsmodells bzw. des Systems, weil dadurch Zielgrößenwerte mittels eines mathematischen Ausdruckes approximiert werden [MWD13]. Im Gegensatz zu den vorherigen Anwendungszwecken benötigt der Entwickler des Meta­modells genaue quantitative Daten der betrachteten Zielgröße als absolutes oder relatives Maß. Aus diesem Grund sollte der Metamodell-Typ wohl bedacht ausgewählt werden, da die erforderliche Genauigkeit für eine Prognose sehr hoch ist. Daher sind hochgradige Po­lynome zu bevorzugen. Es sei denn, dass ein Polynom ersten Grades oder zweiten Grades eine gute Anpassung des Simulationsmodells aufweist. Andere Metamodell-Typen, wie zum Beispiel das künstliche neuronale Netz oder die Spline-Regression, können angewandt wer­den. Diese sind zwar für das Verständnis der Zusammenhänge im Modell weniger geeignet, allerdings zeigen sie zur Prognose gute Anpassungseigenschaften [KS00, S. 18-19].

Wenn das Ziel der Metamodellierung die Prognose ist, dann ist essenziell zu untersuchen, ob eine Unteranpassung oder Überanpassung im Modell herrscht, um Probleme bei der Pro­gnosefähigkeit zu verhindern (siehe Abbildung 2.4).

Die Anpassung bezieht sich auf die Fähigkeit eines Modells, die Zielgrößenwerte, die im Rahmen der Simulationsexperimente ermittelt wurden, zu schätzen [SSG02].

Auf der anderen Seite bezieht sich die Generalisierung auf die Möglichkeit, neue Ziel­funktionswerte, die nicht in Simulationsexperimenten ermittelt wurden, zu prognostizieren [SSG02].

In diesem Zusammenhang ist ein Modell mit Unteranpassung behaftet, wenn die Anpassungs­und Generalisierungsfehler hoch sind [SSG02]. Dies kann an nicht betrachteten Eingangs­größen oder an einem unangemessenen Metamodell-Typ liegen. Dementsprechend müssen Maßnahmen getroffen werden, um den Anpassungsfehler zu reduzieren und die Prognose­fähigkeit zu erhöhen [Ba16].

Andererseits kann bei einem sehr komplexen Metamodell auch eine Überanpassung auftre­ten. In diesem Fall ist der Anpassungsfehler sehr niedrig und der Generalisierungsfehler sehr hoch [SSG02]. Wenn das geschätzte Modell irrelevante Eingangsgrößen enthält, kann eine Überanpassung auftreten . Die resultierende Spezifität des geschätzten Modells ist so hoch, dass die Prognosen die zufällige Streuung widerspiegeln. Um den Generalisierungsfehler zu verringern, kann die Anzahl an Eingangsgrößen eingeschränkt werden [Ba16].

Optimierung

Darüber hinaus kann eine Systemoptimierung durch ein Metamodell unterstützt werden. Da der Rechenaufwand eines Metamodells niedriger als der eines Simulationslaufs ist, stehen neue Kapazitäten offen. Diese können genutzt werden, um eine Optimierung vorzunehmen [Fr96, Ba15].

Eine Optimierung beinhaltet die Suche nach den Eingangswerten, die zu einem gewünsch­ten Zielgrößenwert führt [KS00].

Der Anwendungszweck dieser Techniken ist letztlich, ein Optimum zu finden. Daher sollte bei der Auswahl des Metamodell-Typs die Genauigkeit als relevantes Kriterium berücksich­tigt werden. Hierbei sind normalerweise genauere Ergebnisse erforderlich als bei Verständnis­Fragestellungen. Der Anspruch auf Genauigkeit ist bei einer Optimierung jedoch niedriger als bei einer Prognose [KS00, S. 19].

Die Response-Surface-Methodology ist ein Beispiel für ein Methode, die normalerweise bei Optimierungszwecken genutzt wird. Sie wird auf der Basis von Polynomen geringer Ord­nung und Gradientenverfahren durchgeführt [CWH07, Kl14]. Dieses bekannte heuristische Verfahren wird im nächsten Kapitel tiefer behandelt.

Unterstützung der Verifikation und Validierung

Durch eine Metamodellierung kann herausgefunden werden, ob die Zielgröße bei der Erhö­hung einer Eingangsgröße ansteigt oder fällt. Wenn das Verhalten der Zielgröße nicht mit dem erwarteten Verhalten im Originalmodell übereinstimmt, sollte das Simulationsmodell überprüft werden. Eine Metamodellierung trägt auf diese Weise zur Überprüfung des Mo­dells bei. Beispielsweise ist in einem Warteschlangenmodell davon auszugehen, dass bei ei­ner erhöhten Ankunftsrate die durchschnittliche Wartezeit ansteigt. Ist dies nicht der Fall, so ist es ein Zeichnen dafür, dass das Simulationsmodell mit einem Fehler behaftet ist [KS00, S. 19].

Darüber hinaus begünstigt der Aufbau eines Metamodells in indirekter Weise die effiziente Validierung des Simulationsmodells, also die Überprüfung der Abweichung zwischen Si­mulationsmodell und Originalsystem [KS00, S. 19].

Ein wichtiges Werkzeug für die effiziente Validierung ist die Versuchsplanung, wodurch das erforderliche Datenvolumen für die Gegenüberstellung von Simulationsmodell und Origi­nalsystem mit geringen Aufwand erhoben werden kann [KS00, S. 19].

Im Bereich der Metamodellierung spielt die Versuchsplanung ebenfalls eine sehr wichti­ge Rolle. Der Umfang und die Kombination der Experimente ist häufig vom gewählten Metamodell-Typ abhängig. Infolgedessen ist für eine angemessene Metamodellierung auch eine passende Versuchsplanung erforderlich [KS00, S. 19].

Sowohl bei der Validierung, als auch beim Aufbau eines Metamodells sollte nach einem Ver­suchsplan gearbeitet werden. Selbstverständlich muss diese Tätigkeit nur einmal verrichtet werden, was zu einer gesteigerten Effizienz in der Simulationsstudie führt. Auf diese Weise leistet ein Metamodell indirekt einen Beitrag zu einer gesteigerten Effizienz bei der Über­prüfung der Validität eines Modells [KS00, S. 19].

Formalisierung des Modells

Mathematische Ausdrücke können als Ergebnis einer Simulationsstudie besser von ande­ren interessierten Parteien zum Beispiel von anderen Forschern nachvollzogen, reproduziert und geprüft werden. Da ein Metamodell in abstrakter Weise die Konstrukte, Beziehungen, Gültigkeit und Regeln eines Modells definiert, kann es zur Formalisierung von Vorwissen angewandt werden [St12, Ni94].

Darüber hinaus erlaubt ein Metamodell das Verhalten von Simulationsmodellen, die ähnli­che Systeme abbilden, gegenüberzustellen. Auf diese Weise werden die Unterschiede und Gemeinsamkeiten herausgestellt. Wenn die Ähnlichkeiten überwiegen, dann können die Si­mulationsergebnisse verallgemeinert werden. Hierbei wird ein gewisses Musterverhalten entdeckt, das auf andere Systeme des gleichen Typs übertragbar ist [Fr96, S. 9].

2.5 Versuchsplanung: Ein Überblick

In der Metamodellierung werden oftmals faktorielle Versuchspläne in der Auflösung III, IV und V, als auch das sogenannte Central-Composite-Design (CCD) für die Methode der polynomialen Regression verwendet [KS00, S. 22]. Andererseits ist das sogenannte Latin- Hypercube-Sampling ein typischer Versuchsplan, der für Methoden, wie die radiale Basis­funktion oder Kriging-Verfahren in Frage kommt [HBJ02, MM92].

In diesem Abschnitt werden zentrale Punkte in Hinblick auf die faktoriellen Versuchspläne, Central-Composite-Design und Latin-Hypercube-Sampling thematisiert.

Für eine ausführlichere Beschreibung und Beispiele sind die Beiträge von Kleijnen [Kl07a], Myers und Montgomery [MM95] als auch McKay et al. [MCB79] zu empfehlen.

Faktorielle Versuchspläne

Der angenommene Metamodell-Typ und die Methode zur Versuchsplanung stehen in ei­nem sehr engen Zusammenhang. Für ein Polynom erster Ordnung, ist der erforderliche Ver­suchsumfang wesentlich kleiner als der Umfang des gleichen Modells mit der zusätzlichen Betrachtung von Interaktionen. Eine faktorielle Planung ermöglicht und vereinfacht die Er­zeugung von Versuchsplänen, wenn Interaktionen bzw. Wechselwirkungen zwischen den Eingangsgrößen vermutet werden [Fr96, S. 126].

Eine faktorielle Planung umfasst die vollfaktoriellen und teilfaktoriellen Versuchspläne [Fr96, S. 126].

Die vollfaktoriellen Versuchspläne erlauben die Verifizierung aller möglichen Interaktionen zwischen den betracheten Variablen. Beispielsweise ist der Umfang eines vollfaktoriellen Versuchsplans mit jeweils zwei unterschiedlichen Werten (Stufen) mit k Eingangsgrößen gleich 2k. Verständlicherweise kann der Plan unnötig umfangreich sein, wenn zu viele von den möglichen Interaktionen berücksichtigt werden, die vernachlässigbar oder nicht zweck­mäßig sind [Fr96, S. 126].

Die gleiche formalisierte Struktur der vollfaktoriellen Versuchspläne wird bei den teilfak­toriellen Versuchsplänen angewandt. Allerdings werden bei der zuletzt genannten Methode nicht alle Interaktionen berücksichtigt.

Betrachtet man einen Versuchsplan mit zwei Stufen, dann ist der Versuchsumfang für den teilfaktoriellen Versuchsplan mit der Reduktionstufe p gleich 2k-p.

Beispielsweise kennzeichnet 25-2 einen Versuchsplan für fünf Eingangsgrößen auf zwei Stufen mit einer Reduktionsstufe zwei. Hierbei ist ersichtlich, dass bei den teilfaktoriellen Versuchsplänen weniger Simulationsläufe benötigt werden [Fr96, S. 127].

Wenn z.B. die Eingangsgrößen A, B, C und D in einem vollfaktoriellen Versuchsplan be­trachtet werden, sind vier Haupteffekte und 12 Interaktionen zwischen den Eingangsgrö­ßen für eine gesamte Anzahl von 16 Experimenten zu berücksichtigen. Die Interaktionen beinhalten sechs Zweifachwechselwirkungen (AB, AC, AD, BC, BD und CD), vier Drei­fachwechselwirkungen (ABC, ABD, BCD und ACD) und eine Vierfachwechselwirkungen (ABCD). In den teilfaktoriellen Versuchsplänen werden Interaktionen unterschiedlicher Ka­tegorien vermengt, um den Versuchsumfang zu reduzieren. Als Konsequenz dessen ist eine Unterscheidung der Effekte dieser Interaktionen nicht möglich. In der Praxis ist dies dennoch nicht schwerwiegend, da die Interaktionen höher Ordnung (zum Beispiel die Dreifach- und Vierfachwechselwirkungen) in der Regel vernachlässigbar sind. Wenn die Zweifachwech­selwirkungen untereinander vermengt sind, bleibt dennoch die Unsicherheit der Zuordnung als Preis für eine bessere Effizienz [SvBH10, S. 27].

In der Tabelle 2.1 kann man die Auflösung unterschiedlicher faktoriellen Versuchspläne se­hen. Die Auflösungsstufen bewerten die Vermengungsstruktur. Diese gibt an, inwiefern der Umfang eines vollfaktoriellen Plans reduziert ist. Diese Auflösungsstufen sind international genormt und eine gängige Bezeichnung für die Optionen der Versuchspläne bei vielen Com­puterprogrammen zur statistischen Auswertung. Grundsätzlich können vier Auflösungsstu­fen unterschieden werden [SvBH10, S. 29].

Die Auflösung III ist für das Screening, also für grobe Untersuchungen geeignet, worauf eine Detailuntersuchung aufgebaut werden kann. Je größer die Auflösung, desto weniger ist die Vermengung und desto besser können Interaktionen identifiziert und differenziert werden. Es gilt natürlich Aufwand und Nutzen so abzuwägen, dass es für den Zweck der Metamodellierung angemessen ist [SvBH10].

Central-Composite-Design

Falls ein quadratisches Verhalten modelliert werden soll, eignet sich das Central-Composite- Design (CCD), weil es auf ein Polynom zweiter Ordnung ausgelegt ist [KS00, S. 22].

Das Central-Composite-Design (CCD) und die faktoriellen Versuchspläne haben die Ge­meinsamkeit, dass beide Techniken auf einem zweistufigen Versuchsplan aufbauen. Den­noch beinhaltet das CCD zusätzliche Versuche bzw. Punkte. Ein Central-Composite-Design

Tabelle 2.1: Auflösung von Versuchsplänen[SvBH10]

Abbildung in dieser Leseprobe nicht enthalten

besteht aus einem „Würfel“ und einem „Stern“. Der „Würfel“ kann auf Basis eines teilfak­toriellen Versuchsplans der Auflösungsstufe IV oder V konstruiert werden. Die zusätzlichen Punkte bilden einen „Stern“, der durch Variation der einzelnen Eingangsgrößen, ausgehend vom Zentrum,3 entsteht. Die Punkte aus dem Stern befinden sich außerhalb des Würfels, weil der Stufenabstand des Sterns den Stufenabstand des Würfels übersteigt (siehe Abbil­dung 2.5 (a)). Als Konsequenz dessen wird jede Eingangsgröße auf fünf Stufen getestet [SvBH10, S. 38].

Die in Abbildung 2.5 (a) dargestellte Versuchsplanung verursacht oftmals Probleme bei der Durchführung von Experimenten. Aus diesem Grund wird in der Praxis dem Face-Centered- CCD den Vorzug gegeben (siehe Abbildung 2.5 (b)). Dennoch ist es bei diesem Versuchsplan so, dass die quadratischen Effekte miteinander korrelieren, daher sind seine Eigenschaften im Vergleich zum CCD schlechter [SvBH10, S. 38].

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.5: Alternativen zum Central Composite Design: (a) CCD, (b) Face-Centered- CCD (in Anlehnung an [SvBH10])

Obwohl diese Methode eine nicht Orthogonalität und einen großen Versuchsumfang auf­weist, wird sie häufig eingesetzt. Dies liegt daran, dass die Eigenschaften ihrer Felder, also die selektierten Eingangswerte für die geplanten Versuche, insgesamt sehr gut sind und die Zahl der benötigten Versuchsläufe nur moderat mit der Faktorenanzahl ansteigt [KS00, SvBH10].

Latin-Hypercube-Design

Das Latin-Hypercube-Design hat einen anderen Ansatz als die bisher behandelten Metho­den. Der Unterschied liegt darin, dass die faktorielle Versuchsplanung und das CCD auf einem zweistufigen Konzept aufbauen. Im Gegensatz dazu werden beim Latin-Hypercube- Design mehr als zwei Stufen bzw. Werte für jede Eingangsgröße bestimmt. Hierfür wird in erster Linie die Anzahl an Eingangsgrößen und der Versuchsumfang n festgelegt. Dann wer­den für jede Eingangsgröße n-Werte innerhalb eines Intervalls zufällig ermittelt. Dabei hat jeder Wert in diesem Intervall dieselbe Wahrscheinlichkeit, ausgewählt zu werden [Im08, S. 969].

In der faktoriellen Versuchsplanung werden zwei Stufen für jede Eingangsgröße vom Plan­ersteller festgelegt. Dieser hat meistens lediglich einen erwarteten Zielgrößenwert als Orien­tierung für diese Aufgabe. Wenn die Anzahl an betrachteten Variablen zu groß ist, kann eine ungünstige Festlegung dazu führen, dass die resultierte Versuchsplanung Effizienzprobleme aufweist. Durch das Latin-Hypercube-Design ist es hingegen gewährleistet, dass der ganze Designbereich systematisch abgedeckt wird [Im08, S. 969].

3 Methoden zur Metamodellierung

Die Metamodellierung von Produktionsprozessen wird in einer Vielzahl von Branchen, un­ter anderem in der Fertigungstechnik eingesetzt. Die Simulation dient hierbei zur Planung, Inbetriebnahme und Steuerung der Produktion und kann auch während des operativen Be­triebs eingesetzt werden [Fr96, S. 110].

Der Einsatz der Simulation in Kombination mit dem Aufbau eines Metamodells hat in den letzten Jahren an Bekanntheit und Relevanz gewonnen. Die Metamodellierung hat sich auf­grund ihrer positiven Praxisergebnisse als effizientes und effektives Werkzeug erwiesen.

In der Automobilindustrie ist der Einsatz von Simulationsmodellen zur Designoptimierung weit verbreitet. Leider zeichnen sich diese Simulationen durch hohe Laufzeiten aus. Bei­spielsweise kann die Laufzeit bei einer Crashtest-Simulation mehrere Tage in Anspruch nehmen. Aus diesem Grund wurde das Projekt „Entwicklung von Methoden zur zuverläs­sigen Metamodellierung“ von CAE-Simulations-Modellen von der Forschungsvereinigung Automobiltechnik (FAT) initiiert. Im Rahmen dieses Projekts wurden verschiedene Metho­den zur Metamodellierung evaluiert, als auch überlegene Modellauswahlkriterien empirisch untersucht [BKF15, S. 64].

Das US-amerikanische Unternehmen „The Boeing Company“ hat ressorcenintensiv in die Entwicklung einer Reihe von Metamodellen für die Approximation von Simulationsmodel­len investiert. Diese sollten die Qualität von Produkten und Prozessen fördern und die Ent­wicklungsdauer reduzieren. Diese Reihe von Metamodellen ist aktuell im Einsatz für das Design der Aerodynamik, Struktur und Fertigungstechnik der Produkte [Bo98].

Die Metamodellierung ist in der Tat ein sehr wichtiges Werkzeug für die Prognose, Interpre­tation und das bessere Verständnis eines Simulationsmodells. Eine Kernfrage dabei ist, wel­che Methode zu dem betrachteten Simulationsmodell am besten passt. Zahlreiche Methoden stehen dazu zur Verfügung. Daher ist es entscheidend, die mathematischen Hintergründe als auch die Eigenschaften, Vorteile und Nachteile jeder Methode zu verstehen, um eine ange­messene Entscheidung zu treffen.

In diesem Kapitel wird auf die wichtigsten Methoden zur Metamodellierung von Simulati­onsmodellen eingegangen. Hierbei werden für jede Methode die mathematische Formulie­rung, das Lösungsverfahren und die Vor- und Nachteile als auch einige Anwendungsbeispie­le vorgestellt.

Nach einer sehr sorgfältigen Literaturüberprüfung haben sich die Techniken: Polynomia- le Regression, Radiale Basisfunktion, das künstliche neuronale Netz, Kriging-Verfahren, Spline-Regression, Support-Vector-Machine und Entscheidungsbäume als relevant heraus­kristallisiert, da sie von verschiedenen Autoren thematisiert und in der Praxis angewandt wurden, wie in der Tabelle 3.1 und 3.2 ersichtlich gemacht wird.

Als Überblick steht in der Tabelle 3.1 eine Zuordnung von Literaturquellen und Methoden zur Verfügung . Hierbei stehen die Abkürzungen im Tabellenkopf von links nach rechts für die polynomiale Regression, die Spline-Regression, das Kriging-Verfahren, die Support- Vektor-Machine, die Radiale Basisfunktion, die künstlichen neuronalen Netze und die Ent­scheidungsbäume.

Tabelle 3.1: Methoden der Metamodellierung und Literaturquellen

Abbildung in dieser Leseprobe nicht enthalten

In der Tabelle 3.2 sind einige Anwendungsbeispiele exemplarisch enthalten, welche von verschiedenen Autoren mit unterschiedlichen Zwecken und Methoden durchgeführt wurden. Die behandelten Anwendungsbeispiele spiegeln nur einen Teil der Möglichkeiten wider, welche die Metamodellierung von Simulationsmodellen bietet.

In anderen Feldern, wie zum Beispiel in der Ökologie, im militärischen Bereich, der Kran­kenhausplanung und der Informatik können diese Methoden der Metamodellierung ebenfalls angewandt werden [Fr96, S. 111].

[...]


1 engl. DoE: Design of experiments

2 engl. radial basis function

3 engl. center point

Ende der Leseprobe aus 101 Seiten

Details

Titel
Metamodellierung von Simulationsmodellen. Methodenvergleich und prototypische Umsetzung
Hochschule
Technische Universität Ilmenau
Note
1,5
Autor
Jahr
2017
Seiten
101
Katalognummer
V1050344
ISBN (eBook)
9783346471420
ISBN (Buch)
9783346471437
Sprache
Deutsch
Schlagworte
Simulation, Machine Learning, Metamodellierung
Arbeit zitieren
Daniela Rocio Cely Hernandez (Autor:in), 2017, Metamodellierung von Simulationsmodellen. Methodenvergleich und prototypische Umsetzung, München, GRIN Verlag, https://www.grin.com/document/1050344

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Metamodellierung von Simulationsmodellen. Methodenvergleich und prototypische Umsetzung



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden