Diese Arbeit befasst sich mit der Metamodellierung von Simulationsmodellen. Wenn ein Simulationsmodell sehr komplex ist, kann der Rechenaufwand zum Ausführen der Experimente erheblich sein. Außerdem erschwert sich die Analyse und Interpretation der Simulationsergebnisse. In diesem Fall bietet ein Metamodell Vorteile, weil es die Approximation von Input-Output-Verhältnissen auf der Basis der aus der Simulation erlangten Daten erlaubt. Dies bietet die Möglichkeit, Simulationsergebnisse zu prognostizieren und zu optimieren. Angesichts dieses Potentials befasst sich diese Arbeit mit den Grundprinzipen der Metamodellierung und mit der Charakterisierung gängiger Methoden, wie dem Kriging-Verfahren, der Spline-Regression, der Support-Vector-Machine, der polynomialen Regression, der radialen Basisfunktion, dem künstlichen neuronalen Netz und dem Entscheidungsbaum. Hierfür wurde auf die mathematischen Grundlagen, Lösungsverfahren, Vorteile, Nachteile und Anwendungsbeispiele eingegangen.
Inhaltsverzeichnis
1 Einleitung
1.1 Motivation
1.2 Zielsetzung
1.3 Methodik
1.4 Aufbau der Arbeit
2 Grundlagen der Simulation und Metamodellierung
2.1 Der Begriff Simulation
2.2 Grundlagen der Metamodellierung von Simulationsmodellen
2.3 Phasen der Simulation und Metamodellierung
2.4 Zweckmäßigkeit einer Metamodellierung
2.5 Versuchsplanung: Ein Überblick
3 Methoden zur Metamodellierung
3.1 Polynomiale Regression (PR)
3.2 Spline-Regression (SR)
3.3 Support-Vector-Machine (SVM)
3.4 Künstliche neuronale Netze (KNN)
3.5 Radiale Basisfunktion (RBF)
3.6 Kriging-Verfahren (KV)
3.7 Entscheidungsbäume (EB)
3.8 Zusammenfassung der Methoden
4 Prototypische Umsetzung und Gegenüberstellung
4.1 Kriterien für die Gegenüberstellung
4.2 Simulierte Systeme
4.3 Implementierung
4.4 Ergebnisse
5 Fazit und Ausblick
Literaturverzeichnis
Zusammenfassung
Technische Systeme zeichnen sich durch eine hohe Komplexität aus, weil sie zeit- und zufallsabhängige Systemgrößen oder vernetzte Wirkungszusammenhänge beinhalten. Nicht selten werden statt mathematischer bzw. analytischer Methoden Simulationsmodelle verwendet, um das betrachtete System über Simulationsexperimente zu studieren und zu evaluieren.
Wenn ein Simulationsmodell sehr komplex ist, kann der Rechenaufwand zum Ausführen der Experimente erheblich sein. Außerdem erschwert sich die Analyse und Interpretation der Simulationsergebnisse. In diesem Fall bietet ein Metamodell Vorteile, weil es die Approximation von Input-Output-Verhältnissen auf der Basis der aus der Simulation erlangten Daten erlaubt. Dies bietet die Möglichkeit, Simulationsergebnisse zu prognostizieren und zu optimieren.
Angesichts dieses Potentials befasst sich diese Arbeit mit den Grundprinzipen der Metamodellierung und mit der Charakterisierung gängiger Methoden, wie dem Kriging-Verfahren, der Spline-Regression, der Support-Vector-Machine, der polynomialen Regression, der radialen Basisfunktion, dem künstlichen neuronalen Netz und dem Entscheidungsbaum. Hierfür wurde auf die mathematischen Grundlagen, Lösungsverfahren, Vorteile, Nachteile und Anwendungsbeispiele eingegangen.
Die letzten vier Methoden wurden mit Hilfe einer prototypischen Umsetzung anhand von Kriterien, wie der Genauigkeit, Robustheit und Effizienz, miteinander verglichen. Hierbei stellte sich heraus, dass die polynomiale Regression den geringsten Fehler (RAAE) bei der Abbildung linearer Zusammenhänge aufweist. Für die Abbildung einer Nichtlinearität hat hingegen das künstliche neuronale Netz den niedrigsten Fehler gezeigt. Außerdem hat sich die Methode des Entscheidungsbaumes als robust erwiesen, weil sie mit der geringsten Standardabweichung verschiedene Simulationsmodelle abgebildet hat.
Die Ergebnisse dieser Arbeit bestätigen die Nützlichkeit einer Metamodellierung im Sinne der Zeitlaufreduzierung. Während der Aufbau eines Metamodells und die Prognose von Simulationsergebnissen Millisekunden dauert, ist die Laufzeit von der gleichen Zahl an Simulationsexperimenten mindestens tausend mal größer. Bei dem künstlichen neuronalen Netz und der radialen Basisfunktion hat der Aufbau des Metamodells und die Prognose von Simulationsergebnissen vergleichsweise mehr Zeit im Anspruch genommen als die polynomiale Regression und der Entscheidungsbaum.
Abstract
Technical systems are highly complex because they involve time-dependent and random- dependent system variables or networked effects. Simulation is frequently used instead of mathematical or analytical methods in order to study and evaluate the system in question through simulation experiments.
If a simulation model is very complex, the computational effort to perform the experiments could be significant. Furthermore, the analysis and interpretation of simulation results are more difficult. In this case, a metamodel offers advantages because it allows the approximation of input-output relations on the basis of the data obtained from the simulation. Therefore a metamodel offers the possibility to forecast and optimize simulation results.
This work deals with the basic principles of metamodelling and the characterization of common methods, such as “Kriging method”, “spline regression”, “support vector machine”, “polynomial regression”, “radial base function”, “artificial neural network” and “decision tree”. For this purpose, the mathematical basis, solution methods, advantages, disadvantages and application examples were discussed.
The last four methods were compared with each other using a prototypical implementation based on criteria such as accuracy, robustness and efficiency. It turned out that the “polynomial regression” has the lowest error (RAAE) in the representation of linear relationships. In contrast, the “artificial neural network” generated the lowest error for non-linear models. Furthermore, the decision tree has proved to be robust because it had the lowest standard deviation among different simulation models.
The results of this work confirm the usefulness of metamodeling in the sense of time reduction. While fitting a simulation model and forecasting simulation results takes milliseconds, the runtime of simulation experiments is at least a thousand times greater. Nevertheles, the methods “artificial neural network” and “radial basic function” needed more time, to fit a simulation model and to forecast new simulation results, in comparison to “polynomial regression” and “decision tree”.
Diese Arbeit wurde am 25.09.2017 in der Fakultät für Wirtschaftswissenschaften und Medien der Technischen Universität Ilmenau eingereicht.
Ich erkläre hiermit, dass ich diese Masterarbeit selbstständig ohne Hilfe Dritter und ohne Benutzung anderer als der angegebenen Quellen und Hilfsmittel verfasst habe. Alle den benutzten Quellen wörtlich oder sinngemäß entnommenen Stellen sind als solche einzeln kenntlich gemacht.
Diese Arbeit ist bislang keiner anderen Prüfungsbehörde vorgelegt worden und auch nicht veröffentlicht worden.
Ich bin mir bewusst, dass eine falsche Erklärung rechtliche Folgen haben wird.
Daniela Rocio Cely Hernandez
Abkürzungverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
Tabellenverzeichnis
2.1 Auflösung von Versuchsplänen
3.1 Methoden der Metamodellierung und Literaturquellen
3.2 Anwendungsbeispiele einer Metamodellierung von Simulationsmodellen . .
3.3 Datensatz für ein Modell erster Ordnung
4.1 Eingangs-und Zielgrößen der aufzubauenden Metamodelle
4.2 Zusätzlich verwendete R-Bibliotheken
4.3 Methoden zur Metamodellierung und ihre RAAE
4.4 Standardabweichung des RAAE bei Steigerung des stochastischen Verhaltens
4.5 Laufzeit der Simulationsmodelle
Abbildungsverzeichnis
2.1 Metamodellierung für eine Zielgröße und zwei Eingangsgrößen
2.2 Simulation und Metamodellierung
2.3 Globale und lokale Optimierungsstrategie
2.4 Darstellung des Generalisierungsfehlers und Anpassungsfehlers
2.5 Alternativen zur Central Composite Design
3.1 Grafische Darstellung von einem Modell erster Ordnung
3.2 Grafische Darstellung eines Modells mit Interaktionen
3.3 Response-Surface-Methodology
3.4 Polynom 14. Ordnung g(x) als Approximation für f(x)
3.5 Verlustfunktion für SVM
3.6 Einzelneuron und KNN mit einer Ebene
3.7 Mehrschichtiges Netz
3.8 RBF in der Darstellung eines künstlichen neuronalen Netzes
3.9 Partitionen und CART
3.10 Methoden zur Metamodellierung von Simulationsmodellen und ihre Eigenschaften
3.11 Methoden zur Metamodellierung von Simulationsmodellen und ihre Eigenschaften
4.1 Simulation eines Ausfallsicherheitssystems
4.2 Simulation eines Systems mit flexibel einsetzbaren Mitarbeitern
4.3 Simulation der Losgröße in einem Job-Shop-Produktionssystem
4.4 Durchschnittlicher RAAE für Metamodelle der „Ausfallsicherheit“
4.5 Durchschnittlicher RAAE für Metamodelle vom Simulationsmodell „flexibel einsetzbare Mitarbeiter“
4.6 Durchschnittlicher RAAE für Simulationsmodell „Losgröße in einem JobShop-Produktionssystem“
4.7 Durchschnittlicher RAAE für Metamodelle von nichtlinearen Problemen . .
4.8 Durchschnittlicher RAAE und Datenumfang
4.9 Durchschnittliche Rechenzeit für den Aufbau und die Prognose eines Metamodells [ms]
Formelverzeichnis
3.1 Mathematische Modelle im Allgemeinen
3.2 Modell erster Ordnung
3.3 Ermittlung der Parameter ß bei einer Regression
3.4 Modell zweiter Ordnung
3.5 Gradientenverfahren
3.6 Matrixform für ein Modell zweiter Ordnung
3.7 Kritischer Punkt für ein Modell zweiter Ordnung
3.8 Allgemeine Form einer Spline-Funktion
3.9 Optimierungsproblem für die Erzeugung von Smoothing-Splines
3.10 Minimierungsproblem für die Erzeugung von SVM
3.11 Verlustfunktion
3.12 Allgemeine Form einer Support-Vector-Machine
3.13 Ermittlung der Parameter af und ai für SVM
3.14 Funktionszusammenhang eines Neurons
3.15 Funktionszusammenhang einer Schicht
3.16 Radiale Basisfunktion
3.17 Gauß-Funktion
3.18 Ermittlung der Parameter w in der radialen Basisfunktion
3.19 Kriging-Modell
3.20 Ermittlung der räumlichen Korrelation für das Kriging-Verfahren
3.21 Gaußsche Korrelationsfunktion
3.22 Schätzung von y für das Kriging-Verfahren
3.23 Gauß-Funktion
3.24 Matematische Darstellung eines Entscheidungsbaumes
3.25 Schätzung der Konstanten Cm
4.1 Ermittlung des RAAE
4.2 Nichtlineare Funktionen
1 Einleitung
1.1 Motivation
Technische Systeme in der Wirtschaft, im Gesundheitswesen, im Verkehrswesen usw. zeichnen sich durch eine hohe Komplexität aus, weil sie zeit- und zufallsabhängige Systemgrößen oder vernetzte Wirkungszusammenhänge beinhalten. Diese Faktoren erhöhen die Komplexität des Systems so drastisch, dass mathematische bzw. analytische Methoden nicht angewandt werden können, um die Systeme zu studieren und zu evaluieren. Dies erschwert nicht nur die Überschaubarkeit, sondern auch die Planung, Realisierung und den Betrieb dieser technischen Systeme [VDI08, S. 2].
Die Simulation stellt einen alternativen Ansatz dar. Sie erlaubt das Nachbilden eines Systems und die Aufstellung eines Modells, mit dem Experimente durchgeführt werden können [VDI08, S. 2]. Durch eine Simulation ist es möglich, ein Modell numerisch bzw. computergestützt zu evaluieren. Dies mit dem Zweck, die Eigenschaften und Verhaltensweisen des Modells zu studieren und eventuell zu verbessern [La01, S. 1].
Die Tatsache, dass die Simulation lediglich eine Nachbildung des Originals ist, ermöglicht es, mit Modellgrößen zu experimentieren oder verschiedene Szenarien auszuprobieren. Dies hat den Vorteil, dass man keine Störungen im realen System verursacht. [Fr96, S. 3]. Auf diese Weise kann nach Abschluss einer Simulationsstudie festgestellt werden, welche Parameter im nachgebildeten Modell zu einer gewünschten Zielgröße führen. Wenn diese Ergebnisse in die Realität übertragbar sind, kann die Leistung des Systems durch die beste Parameterauswahl verbessert werden [MK11, S. 41].
Die Simulationen beinhalten in diesem Sinne nicht nur den Aufbau und die Ausführung eines Simulationsmodells, sondern auch die Analyse von Simulationsexperimenten. Es soll eine Extraktion von Informationen aus den Versuchsergebnissen stattfinden, um Wissen über das Verhalten des Systems unter verschiedenen Szenarien zu erwerben [Fr96, S. 8].
Wenn das Simulationsmodell sehr komplex ist, kann der Rechenaufwand zum Ausführen der Experimente erheblich sein. In diesem Fall bietet ein Metamodell Vorteile. Es erlaubt die Approximation von Input-Output-Verhältnissen auf der Basis der aus der Simulation erlangten Daten. Dies geschieht mit geringem Rechenaufwand [Ba15] und hat als Konsequenz, die Möglichkeit der Optimierung von unzähligen Systemkonfigurationen mit angemessener Ressourcenbindung [Fr96, S. 9].
Durch eine Metamodellierung löst sich die Dynamik des Modells von der Simulation, um ein besseres Verständnis des Systems zu erlangen. Ein Metamodell bildet nur das Wesentliche ab. Es dient der Vereinfachung des Modells. Demzufolge ist die Metamodellierung ein praktisches, aber robustes Werkzeug für die Interpretation und Analyse hochkomplexer Mo- delle [Fr96, S. 9].
Außerdem kann eine Metamodellierung die Verallgemeinerung von Ergebnissen unterstützen. So kann durch ein Metamodell ein gewisses Musterverhalten entdeckt werden, das auf andere Systeme des gleichen Typs übertragbar ist [Fr96, S. 9].
Nicht nur aufgrund ihrer Anwendungsmöglichkeiten ist die Metamodellierung ein spannendes Forschungsfeld, sondern auch, weil sie von der Weiterentwicklung im Bereich des statistischen Lernens, maschinellen Lernens und des Data Mining profitiert. Diese Disziplinen liefern Methoden, die in der Metamodellierung angewandt werden können.
Das Thema Metamodellierung wird aktuell intensiv erforscht. Dabei werden Methoden von verwandten Disziplinen angepasst und neue Algorithmen aufgestellt, um bessere Ergebnisse zu erzielen. Obwohl der Begriff Metamodell bereits in den 70er Jahren von Kleijnen [Kl75] eingeführt wurde, spielt die Metamodellierung heute nach wie vor eine sehr wichtige Rolle im Bereich der Simulation.
1.2 Zielsetzung
In diesem Zusammenhang besteht der Bedarf, die alten Grundlagen der Metamodellierung und die neusten Erkenntnisse der Forschung auf strukturierte Weise zusammenzuführen. Neue Informationen aus anderen Forschungsfeldern können so aufgenommen und vereint werden. Außerdem können Lücken erkannt werden, die als Thema für die weitere Forschung interessant wären. Aus diesem Grund ist das erste Ziel dieser Arbeit, eine Strukturierung der aktuellen Literatur vorzunehmen. Dabei sollte Klarheit geschaffen werden über:
- die Grundprinzipien der Simulation und der Metamodellierung
- Methoden zur Metamodellierung: ihre mathematischen Grundlagen, Lösungsverfahren, Vorteile, Nachteile und Anwendungsbeispiele
- Ähnlichkeiten und Unterschiede zwischen den betrachteten Methoden zur Metamodellierung
Das zweite Ziel dieser wissenschaftlichen Arbeit ist der Vergleich ausgewählter Methoden mit Hilfe der prototypischen Umsetzung von Simulationsmodellen. Auf Basis von Simulationsergebnissen werden unterschiedliche Metamodelle nach unterschiedlichen Verfahren aufgestellt. Diese Metamodelle werden für die Prognose von neuen Simulationsergebnissen verwendet. Dabei ist es das Ziel, Erkenntnisse über die Adäquatheit dieser Methoden zu gewinnen.
1.3 Methodik
Um dieser Zielsetzung gerecht zu werden, lehnt sich die Literaturrecherche an die Methodik von Webster und Watson [WW02] an. Dies ermöglicht eine logische Suche und Kategorisie- rung von Literaturquellen und erleichtert daher den Aufbau einer zusammenhängenden und zielführenden Abhandlung.
Im Praxisteil der Zielstellung wird die prototypische Umsetzung von Simulationsmodellen durchgeführt. Anhand dessen sollen relevante Methoden für die Metamodellierung aufgebaut und gegenübergestellt werden. Hierbei werden Vergleichskriterien für die Modelle festgelegt, die einen Einfluss auf die Adäquatheit dieser Methoden haben.
1.4 Aufbau der Arbeit
Um eine inhaltliche Strukturierung vorzunehmen, wurde diese Arbeit in fünf Kapitel gegliedert. Nach der Einleitung wird im zweiten Kapitel das Thema Metamodellierung eingeführt. Hierbei wird auf den Begriff der Simulation und Metamodellierung eingegangen. Ebenfalls werden die Phasen und Zweckmäßigkeit einer Metamodellierung behandelt. Darauf folgend werden im dritten Kapitel der aktuelle Stand der Forschung bezüglich der Methoden zur Metamodellierung und deren Eigenschaften behandelt. Hierbei wird speziell auf die mathematischen Grundlagen, die Lösungsverfahren, die Vorteile, die Nachteile und die Anwendungsbeispiele dieser Methoden eingegangen. Im vierten Kapitel werden die genaue Methodik, Analyse und Ergebnisse der Gegenüberstellung von Methoden zur Metamodellierung präsentiert. Hierbei werden bestimmte Eigenschaften verglichen, um eine Aussage über die Adäquatheit dieser Methoden zu treffen. Die Inhalte dieser Arbeit und die Aussichten, die sich daraus ableiten lassen, werden abschließend im Fazit und Ausblick zusammengefasst.
2 Grundlagen der Simulation und Metamodellierung
In diesem Kapitel werden Begrifflichkeiten der Metamodellierung präsentiert, worauf die nächsten Kapitel aufbauen werden. Erstens werden die Begriffe Simulation und Metamodellierung definiert. Anschließend wird der Zusammenhang zwischen Simulationsmodell und Metamodell thematisiert. Danach wird auf die Phasen einer Simulationsmodellierung und Metamodellierung eingegangen. Abschließend werden sowohl die Ziele einer Metamodellierung behandelt, als auch essenzielle Konzepte und Methoden der Versuchsplanung vorgestellt, die zu einer effizienten Datenerhebung in der Metamodellierung dienen.
2.1 Der Begriff Simulation
Der Verband deutscher Ingenieure (VDI) definiert Simulation in seiner Richtlinie folgenderweise:
„Simulation ist das Nachbilden eines Systems mit seinen dynamischen Prozessen in einem experimentierbaren Modell, um zu Erkenntnissen zu gelangen, die auf die Wirklichkeit übertragbar sind. Insbesondere werden die Prozesse über die Zeit entwickelt.
Im weiteren Sinne wird unter Simulation das Vorbereiten, Durchführen und Auswerten gezielter Experimente mit einem Simulationsmodell verstanden“ [VDI08, S. 2].
In dieser Definition nimmt der VDI explizit auf dynamische Prozesse Bezug. An dieser Stelle ist es wichtig anzumerken, dass man eine Simulation normalerweise nur bei komplexen Systemen verwendet, die nicht durch mathematisch-analytische Methoden abgebildet werden können. Diese Systeme zeichnen sich dadurch aus, dass sie zeit- und zufallsabhängige Systemgrößen als auch stark vernetzte Wirkungszusammenhänge aufweisen [VDI08, S. 2]. Wie bereits in der Definition beschrieben, erfolgt eine Simulation über den Aufbau eines Modells. Hierbei werden gewisse Annahmen über die Funktionsweise eines realen Systems getroffen und getestet. Diese Annahmen, die in der Regel als mathematische oder logische Zusammenhänge formuliert werden, stellen die Grundlage des Modells dar [La01, S. 1].
Ein Modell ist also: „ [...] eine abstrahierte Abbildung eines zu untersuchenden Systems, das entweder bereits existiert oder künftig entstehen soll“ [MK11, S. 13]. Diese abstrahierte Abbildung wird anhand von Eingangs- und Ausgangsgrößen aufgebaut, welche die Dyna- mikdes Systems widerspiegeln sollen [Fr96, S. 13].
Der Aufbau eines Modells beinhaltet die Analyse, Vereinfachung und Approximation des Systems. Das heißt, dass das System mit einem niedrigeren Detaillierungsgrad abgebildet wird. Ein Modell entspricht nicht hundertprozentig dem Original, allerdings imitiert es dessen Zeitentwicklung und seine wichtigsten Eigenschaften [La01].
Im weiteren Verlauf bezieht sich der VDI auf den experimentierbaren Charakter eines Simu- lationsmodells, wobei ein Simulationsexperiment folgenderweise definiert wird.
„Ein Simulationsexperiment ist die gezielte empirische Untersuchung des Verhaltens eines Modells durch wiederholte Simulationsläufe mit systematischer Parametervariation oder Strukturvariation“ [VDI08, S. 3].
Aus der Tatsache, dass eine Simulation auf dem Aufbau eines Modells beruht, leitet sich der Vorteil ab, dass die Simulation das Experimentieren mit Sachverhalten erlaubt, mit denen im realen System keine Experimente durchgeführt werden können. So zum Beispiel weil das System noch nicht existiert oder weil die Durchführung von Experimenten nicht zweckmäßig ist oder sogar negative Konsequenzen haben könnte [Ce91, S. 10].
Simulation geht über den Aufbau des Modells hinaus. Sie beinhaltet das nachfolgende Experimentieren mit dem konstruierten Modell, um Erkenntnisse zu gewinnen und ein Verständnis über das Verhalten des Modells zu erlangen [VDI08, S. 2]. Darüber hinaus ist es möglich, eine Simulation für das Design oder Optimierung eines Systems anzuwenden. Beispielsweise können im Rahmen einer Simulationsstudie über sukzessive Experimente die Parameter festgestellt werden, welche im nachgebildeten Modell zu einer gewünschten Zielgröße führen [MK11, S. 41].
Laut der Definition des VDI sind die Ergebnisse einer Simulationsstudie nur brauchbar, wenn sie auf die Realität übertragbar sind. Deshalb sollte die korrekte Überführung des konzeptionellen Modells in das Simulationsprogramm überprüft werden. Ebenfalls sollte eine Überprüfung der hinreichenden Übereinstimmung von Modell und Originalsystem erfolgen [La01, S. 302].
Zusammenfassend kann behauptet werden, dass die Simulation eine Alternative zu den mathematischen oder analytischen Methoden ist. Sie ist ein Werkzeug, das erlaubt dynamische Systeme zu analysieren, zu gestalten und zu verbessern, indem Experimente an einem Modell durchgeführt werden, dessen Eigenschaften und Dynamik, die des Originalsystems ähneln. Hierbei wird die Annahme getroffen und durch eine Verifikation und Validierung überprüft, dass die Ergebnisse der Simulation in die Realität übertragbar sind.
2.2 Grundlagen der Metamodellierung von Simulationsmodellen
Eine Metamodellierung beinhaltet den Aufbau eines vereinfachten Modells aus den Simulationsergebnissen, die mit einer moderaten Anzahl an Experimenten bzw. Läufen gewonnen wurden. Die approximierten Input-Output-Verhältnisse, welche das Metamodell umfasst, können für die Prognose von nicht experimentierten Szenarien mit geringem Rechenaufwand genutzt werden. Dies spart lange und speicherintensive Läufe am Simulationsmodell und stellt einen großen Vorteil für die Implementierung und das Verständnis hochkomplexer Modelle dar [Me01, S. 13].
Unter einem Simulations-Metamodell ist ein vereinfachtes mathematisches Modell zu verstehen, welches das Verhalten des Simulationsmodells hinsichtlich der betrachteten Zielgrößen und Eingangsgrößen approximieren soll [Ni94, S. 400].
Durch ein Metamodell löst sich die Dynamik des Modells von der Simulation. Denn statt des Simulationsmodells wird das Metamodell für die Bewertung von zusätzlichen Szenarien oder Experimenten verwendet [Fr96, S. 9].
Außerdem bildet ein Metamodell nur das Wesentliche ab und dient daher der Vereinfachung des Modells. Aus diesem Grund ist es ein praktisches aber robustes Werkzeug für die Interpretation und Analyse hochkomplexer Modelle [Fr96, S. 9].
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.1: Metamodellierung für eine Zielgröße und zwei Eingangsgrößen [RBN12]
In Abbildung 2.1 wird bildlich dargestellt, inwiefern die Konstruktion eines Metamodells zur Zeitlaufverkürzung und zum Verständnis des Systems dient. In diesem Fall werden lediglich zwei Variablen bzw. Eingangsgrößen betrachtet, die in Zusammenhang mit einer Zielgröße stehen. Ziel dieser Simulationsstudie ist es, den Wert der Variablen eins und zwei zu ermitteln, der zu einem maximalen Zielgrößenwert (Response) führt. Im Rahmen der Versuchsplanung wird vorgesehen, dass nur gewisse Kombinationen aus den Variablen eins und zwei evaluiert werden. Anschließend wird das Simulationsmodell für die Durchführung der Experimente verwendet. Daraus ergibt sich ein Zielgrößenwert für jede geplante Kombination. Diese Input-Output-Verhältnisse stellen die Grundlage für das Metamodell dar [RBN12]. Durch das Metamodell kann die Zielgröße geschätzt werden, die für weitere Variablenkombinationen zu erwarten wären, ohne einen aufwendigen Simulationslauf zu starten. Da die Laufzeit eines Metamodells in der Regel kürzer ist als die Laufzeit eines Simulationsmodells, erlaubt eine Metamodellierung eine schnellere Antwort [BKF15, S. 65].
In der rechten Seite der Abbildung 2.1 wird ein Metamodell als dreidimensionale Fläche dargestellt. Dabei können sowohl hohe und tiefe Bereiche, als auch die dazugehörige Varia- blenkombinationen erkannt werden.
Die Visualisierung eines Metamodells ist ab drei Variablen nicht mehr möglich, jedoch hilft der mathematische Ausdruck eines Metamodells dabei, den Einfluss der Variablen auf die Zielgröße besser zu verstehen [RBN12].
Über ein Metamodell können ebenfalls allgemeine Tendenzen und Zusammenhänge zwischen Input und Output herausgefunden werden, die ohne eine mathematische Darstellung sehr schwer nachvollziehbar wären [RBN12].
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.2: Simulation und Metamodellierung (in Anlehnung an [Ni94])
In der Abbildung 2.2 ist das allgemeine Schema einer Metamodellierung vorgestellt. Durch Modellierung entsteht ein Simulationsmodell, welches das reale System mit einem festgelegten Abstraktionsgrad abbildet. Hier wird das reale System und das Simulationsmodell als „Blackbox“ dargestellt. Dementsprechend gehen Eingänge sowohl in das reale System, als auch in das Simulationsmodell hinein, während Zielgrößen aus der Simulation und realem System herausfließen. Das Simulations-Metamodell soll so konstruiert werden, dass dessen Ergebnisse die Ergebnisse der Simulation approximieren, wenn die bei der Simulation verwendeten Eingangswerte eingesetzt werden. Dies kann zum Beispiel über ein iterativinkrementelles Vorgehen erreicht werden, bis die Differenzbewertung einem gewissen Genauigkeitsgrad genügt [Ni94].
Darüber hinaus ist in dieser Abbildung ersichtlich dargestellt, dass ein Metamodell die durchgeführte Simulation und nicht direkt das Originalsystem abbildet [Ni94].
Metamodell und Modell stehen in einer Klasse-Instanz-Beziehung zueinander. Das heißt, dass ein Metamodell die Ergebnisse der Simulation abbildet, während das Simulationsmodell die Elemente der wirklichen Welt beschreibt [St12].
Sofern eine sorgfältige Überprüfung des Modells und Metamodells stattfindet, sind die Ergebnisse einer Simulationsstudie (inklusive Metamodellierung) in die Realität übertragbar. Eine wirksame Verifikation und Validierung verhindert, dass fehlerhafte Erkenntnisse gewonnen werden, die zur Fehlentscheidungen führen [RSW08].
Da Simulation und Metamodellierung in einem sehr engen Zusammenhang stehen, ist eine reibungslose Kopplung zwischen diesen Phasen ein Erfolgsfaktor im Rahmen eines Simulationsprojekts.
2.3 Phasen der Simulation und Metamodellierung
Bei einem Simulationsprojekt, das Metamodellierung beinhalten soll, können typischerweise folgende Phasen differenziert werden [Fr96].
Problemformulierung
In der Problemformulierungsphase wird sowohl die Zielsetzung und der Umfang der Simulationsstudie definiert, als auch die Grenze des betrachteten Systems identifiziert [Fr96, S. 6].
In dieser Phase sollte ebenfalls evaluiert werden, ob eine Simulation die beste Methode für das betrachtete Problem ist [Ba04, S. 14].
Systemanalyse und Aufbau des konzeptionellen Modells
Hierbei wird das System erforscht und analysiert, um Eingangs- und Ausgangsgrößen zu identifizieren. Es werden ebenfalls Leistungseigenschaften erkannt, welche die Effektivität des Systems beeinflussen [Fr96, S. 6]. Daraus ergibt sich ein konzeptionelles Modell, welches das System in abstrahierter Form beschreibt.
Der Aufbau eines konzeptionellen Modells gilt als die Kunst, die wichtigsten Eigenschaften des Systems zu abstrahieren, Annahmen zu selektieren und so zu modifizieren bis eine gewisse Komplexität erreicht wird, die für die Problemstellung angemessen ist [Ba04, S. 14]. Zu dieser Phase gehört ebenso die Datenerhebung. Hierbei werden aus dem realen System Daten gesammelt und analysiert, anhand dessen die getroffenen Annahmen validiert werden. Falls Abweichungen zwischen Modell und Originalsystem Vorkommen, kann das Modell dementsprechend sukzessiv angepasst werden. Die Art und Weise dieser Anpassung wird ist in verschiedenen Vorgehensmodellen systematisiert, wie im Beitrag von Rabe et al. dokumentiert ist [RSW08, S. 29-32].
In der Regel werden die gesammelten Daten an die theoretischen Wahrscheinlichkeitsverteilungen angepasst, um Systemparameter wie zum Beispiel Bedienungs- oder Ankunftszeit zu bestimmen [Fr96, S. 6].
Aufbau des Simulationsmodells
Dieser Schritt beinhaltet sowohl die Selektion eines Simulationsprogramms, die Umwandlung des konzeptionellen Modells in ein vom Computer erkennbares Format oder in eine Programmiersprache, als auch die Verifikation und Validierung des implementierten Simulationsmodells [Fr96, S. 6].
Bei der Verifikation wird geprüft, ob das konzeptionelle Modell korrekt in das gewählte Simulationsprogramm überführt wurde. Hingegen wird bei der Validierung die Übereinstimmung vom Originalsystem und dem konzeptionelles Modell überprüft [RSW08, 14-15]. Von Vorteil ist die Durchführung einer frühen Verifikation und Validierung. Dafür sind verschiedene Strategien und Vorgehensmodelle entwickelt worden, die vorgeben, in welchen Phasen eine Überprüfung vorgenommen werden muss. In diesem Zusammenhang ist aufgrund deren Wichtigkeit auf die Beiträge von Sargent [Sa98], Law [La07] und den VDI [VDI08] zu verweisen.
Aufbau des Metamodells
Die Konstruktion eines Metamodells schließt folgende Aspekte ein [BM06, KS00].
- Festlegung der Ziele einer Metamodellierung:
In dieser Phase werden die Ziele der Metamodellierung festgelegt. Diese können sich auf das Verständnis des Originalsystems, die Prognose einer neuen Eingangskonfiguration, die Optimierung des Systems, die Unterstützung der Verifikation und Validierung des Simulationsmodells oder die Formalisierung des Modells beziehen, wie im nächsten Abschnitt detailliert beschrieben wird [BM06, KS00].
- Planung des Metamodells:
Die Eingangsgrößen und Zielgrößen, die für den Aufbau des Metamodells benötigt werden, sollen identifiziert und charakterisiert werden. Diese müssen verständlicherweise auf die Ziele des Metamodells ausgerichtet sein. Die Eingangs- und Ausgangsgroßen des Simuationsmodells können zu diesem Zweck als Orientierung genommen werden. Dennoch ist es legitim, eine tiefere Abstraktion in der Metamodellierung vorzunehmen und weniger Eingangsgrößen und Zielgrößen zu betrachten [KS00]. Darüber hinaus soll für die Planung eines Metamodells ein Designbereich festgelegt werden. Dieser beschreibt den Raum aller Eingangsgrößen, die für die Simulationsstudie und den Aufbau des Metamodells relevant sind. Diese Festlegung ist logischerweise eine Basis für die Erstellung des Versuchsplans und die darauffolgende Durchführung von Simulationsläufen [KS00, S. 16].
Außerdem sollte der Designbereich für die Anwendung des Metamodells berücksichtigt werden. Werte außerhalb dieses Bereichs, die vom Anwender ins Modell eingesetzt werden, führen zu nicht gültigen Ergebnissen [Ce91, S. 6].
Die erforderliche Prognosegenauigkeit des Metamodells in Hinsicht auf das Simulationsmodell und Originalsystem soll festgestellt und vorausgesetzt werden. Diese dient am Ende der Simulationsstudie als Instrument der Überprüfung, weil der Entwickler des Metamodells verifizieren kann, ob die erwartete Prognosegenauigkeit erreicht ist. [KS00, S. 17].
Die akzeptable Genauigkeit im Bezug auf das Simulationsmodell und System kann anhand von zwei Intervallen ausgedrückt werden. Diese können sogar unterschiedliche Bereiche einnehmen. Für ihre Festlegung sind die Ziele des Metamodells eine sehr gute Orientierung [KS00, S. 17].
Die Genauigkeit des Metamodells wird anhand von bestimmten Metriken abgewogen. In diesem Sinne gilt es, diese Metriken (zum Beispiel den mittleren oder den absoluten Fehler) festzulegen, um die Qualität des Metamodells einzuschätzen [KS00, S. 17].
- Auswahl einer Metamodellform:
Anhand der Informationen aus der Phase „Systemanalyse und Aufbau des konzeptionellen Modells“ werden eine oder mehrere Metamodell-Formen ausgewählt, mit denen die Ergebnisse der Simulation abgebildet werden [Fr96, S. 7].
- Versuchsplanung und Durchführung von Simulationsexperimenten:
Diese Aufgaben werden typischerweise als Bestandteil einer Simulationsstudie eingestuft. Dennoch sind sie als Aspekte für den Aufbau eines Metamodells zu berücksichtigen, weil sie im direkten Zusammenhang zur Metamodellierung stehen [BM06].
Die Versuchsplanung1 ist eine Methodik zur systematischen Planung und statistischen Auswertung von Versuchen bzw. Einzelexperimenten. Hierbei ist das Ziel, mit gerin-
gem Aufwand den funktionalen Zusammenhang zwischen den Eingangsgrößen und den Zielgrößen zu ermittelt. Die typische Fragestellung der Versuchsplanung betrifft den benötigten Versuchsumfang, der erforderlich ist, um die festgelegte Prognosegenauigkeit zu erreichen [SvBH10].
In der Simulation werden in der Phase der Versuchsplanung unter Berücksichtigung der Simulationsziele sowohl die Lauflänge, die simuliert werden muss (z.B die 8 Stunden eines Werktags), die Anzahl an Replikationen, die für eine geeignete statistische Auswertung notwendig sind, als auch die Methode zur Versuchsplanung definiert [Fr96].
Mit dem festgelegten Versuchsplan und dem Simulationsmodell wird die Simulation unter definierten Restriktionen durchgeführt [Fr96].
- Anpassung des Metamodells an die Simulationsergebnisse:
Die ausgewählten Modelle werden, an die aus der Simulation erzeugten Daten, angepasst. Aus diesem Prozess ergeben sich die geschätzten Parameter des Metamodells [BM06, S. 539].
- Validierung des Metamodells:
Hierbei wird die Adäquatheit der Modelle anhand gewisser Metriken bewertet. Beispiele dafür sind der mittlere und der absolute Fehler. Diese sollen reflektieren, wie genau das Metamodell das Simulationsmodell approximiert. In der Literatur wird dieser Vorgang oftmals „innere Validierung“ bezeichnet [Fr96].
- Optimierung anhand einer Metamodellierung:
Die Zielsetzung von vielen Simulationsstudien schließt die Optimierung einer bestimmten Zielgröße ein. Hier werden die Eingangsgrößen gesucht, die ein Optimum ergeben. Je nach Systemeigenschaften ist eine Minimierung oder eine Maximierung der betrachteten Zielgröße erwünscht.
Wie in der Abbildung 2.3 zu sehen ist, stehen grundsätzlich zwei Strategien für die Optimierung eines Systems anhand einer Metamodellierung zur Verfügung: die globale und die lokale Strategie [BM06].
Bei der globalen Strategie erfolgt zuerst der Aufbau des Metamodells für den gesamten zulässigen Bereich, der sich aus dem Designbereich und den Restriktionen bestimmen lässt, und danach die Suche nach einem Optimum. Ist das Modell nicht geeignet oder ist die Optimierung nicht zufriedenstellend, dann wird die Experimentplanung oder der Metamodell-Typ geändert. Diese Vorgehensweise ist in der Abbildung 2.3 auf der rechten Seite im Detail dargestellt [BM06].
Im Gegensatz dazu wird bei der lokalen Strategie sowohl für den Aufbau des Metamodells als auch für die Optimierung nur ein Teil des zulässigen Bereichs (Region) betrachtet. Ist das konstruierte Modell oder das Ergebnis der Simulation nicht zufriedenstellend, dann kommt eine weitere Region oder eine andere Metamodell-Form in Betracht. Diese Vorgehensweise ist in der Abbildung 2.3 auf der linken Seite im Detail dargestellt [BM06].
Gewisse Metamodell-Typen eignen sich sehr gut für eine lokale Strategie. Metamodelle mit Polynomen geringen Ordnungsgrades, wie lineare oder quadratische Modelle, werden normalerweise dafür verwendet, um die Optimierungsrichtung zu suchen. Die Response-Surface-Methodology könnte im Sinne der lokalen Strategie ebenfalls hilfreich sein [BM06, S. 546-547].
An dieser Stelle stellt sich die Frage, wie groß die Region für die lokale Strategie sein soll. Dies ist für die Präzision und den Erfolg des Metamodells kritisch zu sehen. Wenn die Region zu groß ist, sind Polynome geringen Ordnungsgrades nicht angemessen. Ist die Region zu klein, dann tendieren die Parameter des Metamodells zu null [BM06, S. 548].
Bei der globalen Strategie verwendet man sehr selten Metamodelle mit Polynomen geringen Ordnungsgrades bzw. die Response-Surface-Methodology. Stattdessen kommen die Spline-Regression, das künstliche neuronale Netz, das Kriging-Verfahren oder die radiale Basisfunktion2 in Frage. Diese Methoden werden in dem nächsten Kapitel ausführlich behandelt [BM06, S. 548].
- Leistung im Originalsystem validieren:
Ziel dieser Phase ist einzuschätzen, wie genau das Metamodell das Originalsystem approximiert. Dies wird in der Literatur externe Validierung bezeichnet und ist neben der internen Validierung eine notwendige Überprüfung der Adäquatheit des Metamodells [Fr96, S. 82].
Die Methoden, die für die externe Validierung eines Metamodells und für die Validierung eines Simulationsmodells angewandt werden, sind sehr ähnlich oder gegebenenfalls die gleichen. Beispielsweise können die Ergebnisse eines Metamodells mit historischen Daten verglichen werden, wie es bei Simulationsmodellen in der Praxis üblich ist [Fr96, S. 85]. Andere Methoden, die im Rahmen der Verifikation und Validierung verwendet werden, wie z.B. Animation, Begutachtung und Sensitivitätsanalyse, sind unter anderem im Beitrag von Rabe et al. [RSW08] ausführlich beschrieben.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.3: Globale und lokale Optimierungsstrategie (in Anlehnung an [BM06])
2.4 Zweckmäßigkeit einer Metamodellierung
Eine Metamodellierung bietet verschiedene Vorteile und kann zu differenten Anwendungszwecken verwendet werden. Neben der Laufzeitverkürzung sind folgende Aspekte zu erwähnen:
Besseres Verständnis über das Simulationsmodell
Dadurch, dass ein Metamodell eine umfassendere Anzahl an Experimenten mit weniger Rechenaufwand ermöglicht, können Entwickler bzw. Anwender des Metamodells ein besseres Verständnis über den Einfluss von bestimmten Eingangsgrößen auf eine Zielgröße erlangen oder beispielsweise den Designbereich erkunden [WS06, S. 4].
Ein Metamodell bildet nur die wesentlichen Informationen des Simulationsmodells bzw. des Systems ab. Dies führt zu einer Komplexitätsreduzierung, was verständlicherweise die In- terpretierbarkeit hochkomplexer Modelle verbessert [Fr96, S. 9].
Kleijnen und Sargent [KS00] unterscheiden drei Verständnisstufen, welche die Entwickler je nach Zielstellung erzielen können.
- Das erste Niveau zeichnet sich dadurch aus, dass der Entwickler durch den Einsatz des Metamodells herausfinden kann, ob die Zielgröße bei einer Erhöhung einer Eingangsgröße ansteigt oder fällt. Allgemein kann die Aussage getroffen werden, dass eine einfache Regressionsanalyse dieser Aufgabe genügt [KS00, S. 18].
- Das zweite Niveau bezeichnet das Verständnis darüber, welche Eingangsgrößen des Metamodells relevant sind und welche vernachlässigt werden können. Ein Polynom ersten Grates könnte gute Ergebnisse liefern. Allerdings könnten raffiniertere Techniken für diesen Zweck in Betracht gezogen werden [KS00, S. 18].
- Bei dem dritten Niveau handelt sich um das Verständnis über die Auswirkung verschiedener Eingangsgrößen auf eine Zielgröße. Für diesen Zweck können Polynome der ersten und zweiten Ordnung in Kombination mit Transformationen der Form eines Logarithmus log(x) oder einer Kehrwertfunktion 1/x angewandt werden [KS00, S. 18].
Der Metamodell-Typ sollte verständlicherweise so gewählt werden, dass er mit der Zielsetzung der Metamodellierung übereinstimmt [KS00, S. 18].
Wenn der Entwickler des Metamodells sich ein besseres Verständnis des Simulationsmodells als Ziel setzt, sollte er wenn möglich Polynome niedrigen Grades als Metamodell-Typ bevorzugen. Diese Modelle sind einfacher nachzuvollziehen als andere Techniken, wie die Spline-Regression oder die künstlichen neuronalen Netze, und sie können in den meisten Fällen graphisch dargestellt werden [KS00, S. 18].
Wenn beispielsweise das Ziel der Metamodellierung das Verständnis der inneren Zusammenhänge betrifft, dann ist die Wahl eines Polynoms geeigneter als die einer Spline-Regression. Ist der Erkenntnisgewinn der inneren Wechselwirkungen weniger relevant und der Aufbau eines komplexen Modells erwünscht, dann ist die Spline-Regression hingegen eine sehr gute Wahl. Welche Methode die beste Entscheidung ist, hängt immer von der Zielsetzung ab [KS00, S. 18].
Prognose
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.4: Darstellung des Generalisierungsfehlers und Anpassungsfehlers (in Anlehnung an [SSG02])
Ein Metamodell dient zur Prognose des Simulationsmodells bzw. des Systems, weil dadurch Zielgrößenwerte mittels eines mathematischen Ausdruckes approximiert werden [MWD13]. Im Gegensatz zu den vorherigen Anwendungszwecken benötigt der Entwickler des Metamodells genaue quantitative Daten der betrachteten Zielgröße als absolutes oder relatives Maß. Aus diesem Grund sollte der Metamodell-Typ wohl bedacht ausgewählt werden, da die erforderliche Genauigkeit für eine Prognose sehr hoch ist. Daher sind hochgradige Polynome zu bevorzugen. Es sei denn, dass ein Polynom ersten Grades oder zweiten Grades eine gute Anpassung des Simulationsmodells aufweist. Andere Metamodell-Typen, wie zum Beispiel das künstliche neuronale Netz oder die Spline-Regression, können angewandt werden. Diese sind zwar für das Verständnis der Zusammenhänge im Modell weniger geeignet, allerdings zeigen sie zur Prognose gute Anpassungseigenschaften [KS00, S. 18-19].
Wenn das Ziel der Metamodellierung die Prognose ist, dann ist essenziell zu untersuchen, ob eine Unteranpassung oder Überanpassung im Modell herrscht, um Probleme bei der Prognosefähigkeit zu verhindern (siehe Abbildung 2.4).
Die Anpassung bezieht sich auf die Fähigkeit eines Modells, die Zielgrößenwerte, die im Rahmen der Simulationsexperimente ermittelt wurden, zu schätzen [SSG02].
Auf der anderen Seite bezieht sich die Generalisierung auf die Möglichkeit, neue Zielfunktionswerte, die nicht in Simulationsexperimenten ermittelt wurden, zu prognostizieren [SSG02].
In diesem Zusammenhang ist ein Modell mit Unteranpassung behaftet, wenn die Anpassungsund Generalisierungsfehler hoch sind [SSG02]. Dies kann an nicht betrachteten Eingangsgrößen oder an einem unangemessenen Metamodell-Typ liegen. Dementsprechend müssen Maßnahmen getroffen werden, um den Anpassungsfehler zu reduzieren und die Prognosefähigkeit zu erhöhen [Ba16].
Andererseits kann bei einem sehr komplexen Metamodell auch eine Überanpassung auftreten. In diesem Fall ist der Anpassungsfehler sehr niedrig und der Generalisierungsfehler sehr hoch [SSG02]. Wenn das geschätzte Modell irrelevante Eingangsgrößen enthält, kann eine Überanpassung auftreten . Die resultierende Spezifität des geschätzten Modells ist so hoch, dass die Prognosen die zufällige Streuung widerspiegeln. Um den Generalisierungsfehler zu verringern, kann die Anzahl an Eingangsgrößen eingeschränkt werden [Ba16].
Optimierung
Darüber hinaus kann eine Systemoptimierung durch ein Metamodell unterstützt werden. Da der Rechenaufwand eines Metamodells niedriger als der eines Simulationslaufs ist, stehen neue Kapazitäten offen. Diese können genutzt werden, um eine Optimierung vorzunehmen [Fr96, Ba15].
Eine Optimierung beinhaltet die Suche nach den Eingangswerten, die zu einem gewünschten Zielgrößenwert führt [KS00].
Der Anwendungszweck dieser Techniken ist letztlich, ein Optimum zu finden. Daher sollte bei der Auswahl des Metamodell-Typs die Genauigkeit als relevantes Kriterium berücksichtigt werden. Hierbei sind normalerweise genauere Ergebnisse erforderlich als bei VerständnisFragestellungen. Der Anspruch auf Genauigkeit ist bei einer Optimierung jedoch niedriger als bei einer Prognose [KS00, S. 19].
Die Response-Surface-Methodology ist ein Beispiel für ein Methode, die normalerweise bei Optimierungszwecken genutzt wird. Sie wird auf der Basis von Polynomen geringer Ordnung und Gradientenverfahren durchgeführt [CWH07, Kl14]. Dieses bekannte heuristische Verfahren wird im nächsten Kapitel tiefer behandelt.
Unterstützung der Verifikation und Validierung
Durch eine Metamodellierung kann herausgefunden werden, ob die Zielgröße bei der Erhöhung einer Eingangsgröße ansteigt oder fällt. Wenn das Verhalten der Zielgröße nicht mit dem erwarteten Verhalten im Originalmodell übereinstimmt, sollte das Simulationsmodell überprüft werden. Eine Metamodellierung trägt auf diese Weise zur Überprüfung des Modells bei. Beispielsweise ist in einem Warteschlangenmodell davon auszugehen, dass bei einer erhöhten Ankunftsrate die durchschnittliche Wartezeit ansteigt. Ist dies nicht der Fall, so ist es ein Zeichnen dafür, dass das Simulationsmodell mit einem Fehler behaftet ist [KS00, S. 19].
Darüber hinaus begünstigt der Aufbau eines Metamodells in indirekter Weise die effiziente Validierung des Simulationsmodells, also die Überprüfung der Abweichung zwischen Simulationsmodell und Originalsystem [KS00, S. 19].
Ein wichtiges Werkzeug für die effiziente Validierung ist die Versuchsplanung, wodurch das erforderliche Datenvolumen für die Gegenüberstellung von Simulationsmodell und Originalsystem mit geringen Aufwand erhoben werden kann [KS00, S. 19].
Im Bereich der Metamodellierung spielt die Versuchsplanung ebenfalls eine sehr wichtige Rolle. Der Umfang und die Kombination der Experimente ist häufig vom gewählten Metamodell-Typ abhängig. Infolgedessen ist für eine angemessene Metamodellierung auch eine passende Versuchsplanung erforderlich [KS00, S. 19].
Sowohl bei der Validierung, als auch beim Aufbau eines Metamodells sollte nach einem Versuchsplan gearbeitet werden. Selbstverständlich muss diese Tätigkeit nur einmal verrichtet werden, was zu einer gesteigerten Effizienz in der Simulationsstudie führt. Auf diese Weise leistet ein Metamodell indirekt einen Beitrag zu einer gesteigerten Effizienz bei der Überprüfung der Validität eines Modells [KS00, S. 19].
Formalisierung des Modells
Mathematische Ausdrücke können als Ergebnis einer Simulationsstudie besser von anderen interessierten Parteien zum Beispiel von anderen Forschern nachvollzogen, reproduziert und geprüft werden. Da ein Metamodell in abstrakter Weise die Konstrukte, Beziehungen, Gültigkeit und Regeln eines Modells definiert, kann es zur Formalisierung von Vorwissen angewandt werden [St12, Ni94].
Darüber hinaus erlaubt ein Metamodell das Verhalten von Simulationsmodellen, die ähnliche Systeme abbilden, gegenüberzustellen. Auf diese Weise werden die Unterschiede und Gemeinsamkeiten herausgestellt. Wenn die Ähnlichkeiten überwiegen, dann können die Simulationsergebnisse verallgemeinert werden. Hierbei wird ein gewisses Musterverhalten entdeckt, das auf andere Systeme des gleichen Typs übertragbar ist [Fr96, S. 9].
2.5 Versuchsplanung: Ein Überblick
In der Metamodellierung werden oftmals faktorielle Versuchspläne in der Auflösung III, IV und V, als auch das sogenannte Central-Composite-Design (CCD) für die Methode der polynomialen Regression verwendet [KS00, S. 22]. Andererseits ist das sogenannte Latin- Hypercube-Sampling ein typischer Versuchsplan, der für Methoden, wie die radiale Basisfunktion oder Kriging-Verfahren in Frage kommt [HBJ02, MM92].
In diesem Abschnitt werden zentrale Punkte in Hinblick auf die faktoriellen Versuchspläne, Central-Composite-Design und Latin-Hypercube-Sampling thematisiert.
Für eine ausführlichere Beschreibung und Beispiele sind die Beiträge von Kleijnen [Kl07a], Myers und Montgomery [MM95] als auch McKay et al. [MCB79] zu empfehlen.
Faktorielle Versuchspläne
Der angenommene Metamodell-Typ und die Methode zur Versuchsplanung stehen in einem sehr engen Zusammenhang. Für ein Polynom erster Ordnung, ist der erforderliche Versuchsumfang wesentlich kleiner als der Umfang des gleichen Modells mit der zusätzlichen Betrachtung von Interaktionen. Eine faktorielle Planung ermöglicht und vereinfacht die Erzeugung von Versuchsplänen, wenn Interaktionen bzw. Wechselwirkungen zwischen den Eingangsgrößen vermutet werden [Fr96, S. 126].
Eine faktorielle Planung umfasst die vollfaktoriellen und teilfaktoriellen Versuchspläne [Fr96, S. 126].
Die vollfaktoriellen Versuchspläne erlauben die Verifizierung aller möglichen Interaktionen zwischen den betracheten Variablen. Beispielsweise ist der Umfang eines vollfaktoriellen Versuchsplans mit jeweils zwei unterschiedlichen Werten (Stufen) mit k Eingangsgrößen gleich 2k. Verständlicherweise kann der Plan unnötig umfangreich sein, wenn zu viele von den möglichen Interaktionen berücksichtigt werden, die vernachlässigbar oder nicht zweckmäßig sind [Fr96, S. 126].
Die gleiche formalisierte Struktur der vollfaktoriellen Versuchspläne wird bei den teilfaktoriellen Versuchsplänen angewandt. Allerdings werden bei der zuletzt genannten Methode nicht alle Interaktionen berücksichtigt.
Betrachtet man einen Versuchsplan mit zwei Stufen, dann ist der Versuchsumfang für den teilfaktoriellen Versuchsplan mit der Reduktionstufe p gleich 2k-p.
Beispielsweise kennzeichnet 25-2 einen Versuchsplan für fünf Eingangsgrößen auf zwei Stufen mit einer Reduktionsstufe zwei. Hierbei ist ersichtlich, dass bei den teilfaktoriellen Versuchsplänen weniger Simulationsläufe benötigt werden [Fr96, S. 127].
Wenn z.B. die Eingangsgrößen A, B, C und D in einem vollfaktoriellen Versuchsplan betrachtet werden, sind vier Haupteffekte und 12 Interaktionen zwischen den Eingangsgrößen für eine gesamte Anzahl von 16 Experimenten zu berücksichtigen. Die Interaktionen beinhalten sechs Zweifachwechselwirkungen (AB, AC, AD, BC, BD und CD), vier Dreifachwechselwirkungen (ABC, ABD, BCD und ACD) und eine Vierfachwechselwirkungen (ABCD). In den teilfaktoriellen Versuchsplänen werden Interaktionen unterschiedlicher Kategorien vermengt, um den Versuchsumfang zu reduzieren. Als Konsequenz dessen ist eine Unterscheidung der Effekte dieser Interaktionen nicht möglich. In der Praxis ist dies dennoch nicht schwerwiegend, da die Interaktionen höher Ordnung (zum Beispiel die Dreifach- und Vierfachwechselwirkungen) in der Regel vernachlässigbar sind. Wenn die Zweifachwechselwirkungen untereinander vermengt sind, bleibt dennoch die Unsicherheit der Zuordnung als Preis für eine bessere Effizienz [SvBH10, S. 27].
In der Tabelle 2.1 kann man die Auflösung unterschiedlicher faktoriellen Versuchspläne sehen. Die Auflösungsstufen bewerten die Vermengungsstruktur. Diese gibt an, inwiefern der Umfang eines vollfaktoriellen Plans reduziert ist. Diese Auflösungsstufen sind international genormt und eine gängige Bezeichnung für die Optionen der Versuchspläne bei vielen Computerprogrammen zur statistischen Auswertung. Grundsätzlich können vier Auflösungsstufen unterschieden werden [SvBH10, S. 29].
Die Auflösung III ist für das Screening, also für grobe Untersuchungen geeignet, worauf eine Detailuntersuchung aufgebaut werden kann. Je größer die Auflösung, desto weniger ist die Vermengung und desto besser können Interaktionen identifiziert und differenziert werden. Es gilt natürlich Aufwand und Nutzen so abzuwägen, dass es für den Zweck der Metamodellierung angemessen ist [SvBH10].
Central-Composite-Design
Falls ein quadratisches Verhalten modelliert werden soll, eignet sich das Central-Composite- Design (CCD), weil es auf ein Polynom zweiter Ordnung ausgelegt ist [KS00, S. 22].
Das Central-Composite-Design (CCD) und die faktoriellen Versuchspläne haben die Gemeinsamkeit, dass beide Techniken auf einem zweistufigen Versuchsplan aufbauen. Dennoch beinhaltet das CCD zusätzliche Versuche bzw. Punkte. Ein Central-Composite-Design
Tabelle 2.1: Auflösung von Versuchsplänen[SvBH10]
Abbildung in dieser Leseprobe nicht enthalten
besteht aus einem „Würfel“ und einem „Stern“. Der „Würfel“ kann auf Basis eines teilfaktoriellen Versuchsplans der Auflösungsstufe IV oder V konstruiert werden. Die zusätzlichen Punkte bilden einen „Stern“, der durch Variation der einzelnen Eingangsgrößen, ausgehend vom Zentrum,3 entsteht. Die Punkte aus dem Stern befinden sich außerhalb des Würfels, weil der Stufenabstand des Sterns den Stufenabstand des Würfels übersteigt (siehe Abbildung 2.5 (a)). Als Konsequenz dessen wird jede Eingangsgröße auf fünf Stufen getestet [SvBH10, S. 38].
Die in Abbildung 2.5 (a) dargestellte Versuchsplanung verursacht oftmals Probleme bei der Durchführung von Experimenten. Aus diesem Grund wird in der Praxis dem Face-Centered- CCD den Vorzug gegeben (siehe Abbildung 2.5 (b)). Dennoch ist es bei diesem Versuchsplan so, dass die quadratischen Effekte miteinander korrelieren, daher sind seine Eigenschaften im Vergleich zum CCD schlechter [SvBH10, S. 38].
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.5: Alternativen zum Central Composite Design: (a) CCD, (b) Face-Centered- CCD (in Anlehnung an [SvBH10])
Obwohl diese Methode eine nicht Orthogonalität und einen großen Versuchsumfang aufweist, wird sie häufig eingesetzt. Dies liegt daran, dass die Eigenschaften ihrer Felder, also die selektierten Eingangswerte für die geplanten Versuche, insgesamt sehr gut sind und die Zahl der benötigten Versuchsläufe nur moderat mit der Faktorenanzahl ansteigt [KS00, SvBH10].
Latin-Hypercube-Design
Das Latin-Hypercube-Design hat einen anderen Ansatz als die bisher behandelten Methoden. Der Unterschied liegt darin, dass die faktorielle Versuchsplanung und das CCD auf einem zweistufigen Konzept aufbauen. Im Gegensatz dazu werden beim Latin-Hypercube- Design mehr als zwei Stufen bzw. Werte für jede Eingangsgröße bestimmt. Hierfür wird in erster Linie die Anzahl an Eingangsgrößen und der Versuchsumfang n festgelegt. Dann werden für jede Eingangsgröße n-Werte innerhalb eines Intervalls zufällig ermittelt. Dabei hat jeder Wert in diesem Intervall dieselbe Wahrscheinlichkeit, ausgewählt zu werden [Im08, S. 969].
In der faktoriellen Versuchsplanung werden zwei Stufen für jede Eingangsgröße vom Planersteller festgelegt. Dieser hat meistens lediglich einen erwarteten Zielgrößenwert als Orientierung für diese Aufgabe. Wenn die Anzahl an betrachteten Variablen zu groß ist, kann eine ungünstige Festlegung dazu führen, dass die resultierte Versuchsplanung Effizienzprobleme aufweist. Durch das Latin-Hypercube-Design ist es hingegen gewährleistet, dass der ganze Designbereich systematisch abgedeckt wird [Im08, S. 969].
3 Methoden zur Metamodellierung
Die Metamodellierung von Produktionsprozessen wird in einer Vielzahl von Branchen, unter anderem in der Fertigungstechnik eingesetzt. Die Simulation dient hierbei zur Planung, Inbetriebnahme und Steuerung der Produktion und kann auch während des operativen Betriebs eingesetzt werden [Fr96, S. 110].
Der Einsatz der Simulation in Kombination mit dem Aufbau eines Metamodells hat in den letzten Jahren an Bekanntheit und Relevanz gewonnen. Die Metamodellierung hat sich aufgrund ihrer positiven Praxisergebnisse als effizientes und effektives Werkzeug erwiesen.
In der Automobilindustrie ist der Einsatz von Simulationsmodellen zur Designoptimierung weit verbreitet. Leider zeichnen sich diese Simulationen durch hohe Laufzeiten aus. Beispielsweise kann die Laufzeit bei einer Crashtest-Simulation mehrere Tage in Anspruch nehmen. Aus diesem Grund wurde das Projekt „Entwicklung von Methoden zur zuverlässigen Metamodellierung“ von CAE-Simulations-Modellen von der Forschungsvereinigung Automobiltechnik (FAT) initiiert. Im Rahmen dieses Projekts wurden verschiedene Methoden zur Metamodellierung evaluiert, als auch überlegene Modellauswahlkriterien empirisch untersucht [BKF15, S. 64].
Das US-amerikanische Unternehmen „The Boeing Company“ hat ressorcenintensiv in die Entwicklung einer Reihe von Metamodellen für die Approximation von Simulationsmodellen investiert. Diese sollten die Qualität von Produkten und Prozessen fördern und die Entwicklungsdauer reduzieren. Diese Reihe von Metamodellen ist aktuell im Einsatz für das Design der Aerodynamik, Struktur und Fertigungstechnik der Produkte [Bo98].
Die Metamodellierung ist in der Tat ein sehr wichtiges Werkzeug für die Prognose, Interpretation und das bessere Verständnis eines Simulationsmodells. Eine Kernfrage dabei ist, welche Methode zu dem betrachteten Simulationsmodell am besten passt. Zahlreiche Methoden stehen dazu zur Verfügung. Daher ist es entscheidend, die mathematischen Hintergründe als auch die Eigenschaften, Vorteile und Nachteile jeder Methode zu verstehen, um eine angemessene Entscheidung zu treffen.
In diesem Kapitel wird auf die wichtigsten Methoden zur Metamodellierung von Simulationsmodellen eingegangen. Hierbei werden für jede Methode die mathematische Formulierung, das Lösungsverfahren und die Vor- und Nachteile als auch einige Anwendungsbeispiele vorgestellt.
Nach einer sehr sorgfältigen Literaturüberprüfung haben sich die Techniken: Polynomia- le Regression, Radiale Basisfunktion, das künstliche neuronale Netz, Kriging-Verfahren, Spline-Regression, Support-Vector-Machine und Entscheidungsbäume als relevant herauskristallisiert, da sie von verschiedenen Autoren thematisiert und in der Praxis angewandt wurden, wie in der Tabelle 3.1 und 3.2 ersichtlich gemacht wird.
Als Überblick steht in der Tabelle 3.1 eine Zuordnung von Literaturquellen und Methoden zur Verfügung . Hierbei stehen die Abkürzungen im Tabellenkopf von links nach rechts für die polynomiale Regression, die Spline-Regression, das Kriging-Verfahren, die Support- Vektor-Machine, die Radiale Basisfunktion, die künstlichen neuronalen Netze und die Entscheidungsbäume.
Tabelle 3.1: Methoden der Metamodellierung und Literaturquellen
Abbildung in dieser Leseprobe nicht enthalten
In der Tabelle 3.2 sind einige Anwendungsbeispiele exemplarisch enthalten, welche von verschiedenen Autoren mit unterschiedlichen Zwecken und Methoden durchgeführt wurden. Die behandelten Anwendungsbeispiele spiegeln nur einen Teil der Möglichkeiten wider, welche die Metamodellierung von Simulationsmodellen bietet.
In anderen Feldern, wie zum Beispiel in der Ökologie, im militärischen Bereich, der Krankenhausplanung und der Informatik können diese Methoden der Metamodellierung ebenfalls angewandt werden [Fr96, S. 111].
[...]
1 engl. DoE: Design of experiments
2 engl. radial basis function
3 engl. center point
-
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen.