Genetische Algorithmen für die Strukturberechnung und die Optimierung strukturmechanischer Bauteile

Grundlagen, Stärken und Schwächen anhand praxisnaher Beispiele mittels Finite-Elemente-Methode


Masterarbeit, 2016

241 Seiten, Note: 1,0


Leseprobe


Inhaltsverzeichnis

Aufgabenstellung

2. Theoretische Grundlagen
2.1 Evolutionäre Algorithmen (EA) auf Basis der Evolutionsstrategie
2.2 Der Ursprung evolutionärer Algorithmen
2.3 Evolutionäre Algorithmen in der Technik
2.4 Begriffserklärungen und thematische Einordnung
2.5 Stand der Forschung und Technik im Bereich Optimierung mit EA in der Strukturmechanik
2.6 Die grundlegenden Prinzipien als Ausgangspunkt für die weiteren Methoden und Anwendungen in der Optimierung
2.6.1 Praxisnahe Anwendungen evolutionärer Algorithmen anhand eines Beispiels aus der Materialmodellierung
2.6.2 Optimierung anhand des Mutations-Selektionsprinzip
2.6.3 Optimierung nach dem Prinzip der Rekombination
2.6.4 Grundsätzliche Vor- und Nachteile von EA als Optimierungsmethode
2.7 Verwandte Optimierungsprinzipien
2.7.1 Gemeinsamkeiten der Verfahren
2.7.2 Simulated Annealing (SA)
2.7.3 Threshold Accepting (TA)
2.7.4 Record-to-Record-Travel (RR) und Sintflut-Algorithmus (Sl)
2.8 Vergleich der genannten Verfahren zu den EA
2.9 Multi-Objective-Genetic-Algorism (MOGA)

3. Optimierung in der Strukturmechanik
3.1 Optimierungsprobleme
3.2 Allgemeine Optimierungsmethoden strukturmechanischer Bauteile in der Technik und erste Auswahlkriterien
3.3 Kriterien für den Einsatz mit der Optimierungssoftware

4. Stand der Forschung und Technik nach VDI-Richtlinie 6224
4.1 Einführung, Realisierung, allgemeine und technische Anwendungen mit EA nach VDI
4.2 Klassische Aufgabenstellungen aus der Strukturmechanik mittels EA aus der VDI Richtlinie 6224
4.3 Funktion der EA in Finite-Elemente-Methoden
4.3.1 Einordnung der Optimierung mit EA in FE-Methoden
4.3.2 Ursprung der FE-Optimierungsmethoden und die Selbstoptimierung
4.3.3 Grenzen und Parameterwahl in der FEM nach VDI-Richtlinie 6224
4.4 Zusammenfassung

5. Einführung in die Software Hyper-Study
5.1 Einordnung und Beschreibung der Software im Designprozess
5.2 Einführung in die eingesetzte Software ״Altair Flyper-Study 14.0“
5.2.1 Grundfunktionen in Flyper-Study
5.2.2 Anlegen und auswählen einer neuen Studie
5.2.3 Der Ansatz von Flyper-Study bei der Modellierung
5.3 Begriffe und Lösungsverfahren bei der Optimierung
5.3.1 Begriffe
5.3.2 Lösungsklasse ARSM
5.3.3 Lösungsklasse GA
5.3.4 Lösungsklasse GRSM
5.3.5 Lösungsklasse MOGA
5.3.6 Lösungsklasse MFD
5.3.7 Lösungsklasse SQP

6. Praxisnahe Beispiele aus der Strukturmechanik
6.1 Biegebalken
6.1.1 Modellaufbau in FIM
6.1.2 Aufgabenstellung
6.1.3 Modell mit 1 DV
6.1.4 Modell mit 2 DV
6.1.5 Modell mit 4 DV
6.1.6 Modell mit 5 DV
6.1.7 Modell mit 10 DV
6.1.8 Modell mit 20 DV
6.1.9 Vergleich der vorgestellten Beispiele ״Biegebalken“
6.2 Instabilität durch Kippen
6.2.1 Aufgabenstellung
6.2.2 Modellaufbau in HM
6.2.3 Modellaufbau in HS
6.3 Instabilität durch Knicken
6.3.1 Aufgabenstellung
6.3.2 Modellaufbau in HM
6.3.3 Modellaufbau in HS
6.4 Sandwichstruktur
6.4.1 Modellaufbau in HM
6.4.2 Modellaufbau in HS
6.4.3 Ergebnisse beim Beispiel ״Sandwichelement“

7. Ergebnisse
7.1 Biegebalken
7.1.1 Modell mit 1 DV
7.1.2 Modell mit 2 DV
7.1.3 Modell mit 4 DV
7.1.4 Modell mit 5 DV
7.1.5 Modell mit 10DV
7.1.6 Modell mit 20 DV
7.2 Instabilität durch Kippen
7.3 Instabilität durch Knicken

8. Analyse der Ergebnisse
8.1 Analyse der Beispiele ״Biegebalken“
8.2 Analyse des Beispiels ״Instabilität durch Kippen“
8.3 Analyse des Beispiels ״Instabilität durch Knicken“
8.4 Analyse und Vergleich der eingesetzten genetischen Algorithmen mit den konventionellen Verfahren

9. Vergleich zwischen der Optimierung in HS und HM

10. Zusammenfassung und Ausblick

Literaturverzeichnis

Aufgabenstellung

Das Ziel dieser Arbeit gliedert sich in zwei Teile. Der erste Teil beschäftigt sich mit den sogenannten Evolutionären Algorithmen, die bereits seit Mitte des letzten Jahrhunderts existieren. Dabei sollen die wesentlichen Schwerpunkte für den zweiten Teil der Arbeit mittels einer ausgiebigen Literaturrecherche herauskristallisiert und vorbereitet werden. Außerdem umfasst der erste Teil eine Gegenüberstellung verschiedener, zum Teil neuer Lösungsverfahren und vergleicht diese. Zudem sind die Grundlagen, Definitionen und Anwendungsbereiche abzugrenzen. Besonders hervorzuheben ist, dass ein besonderer Fokus auf dem praxisnahen Anwendungsbereich der Strukturmechanik liegt, sodass die Vielzahl von existierenden Lösungsmöglichkeiten gefiltert und gezielt auf diesen Bereich eingesetzt werden muss. Zur Veranschaulichung sind in diesem Teil der Arbeit theoretische Beispiele notwendig, die im Rahmen dieser Arbeit festzulegen sind.

Der zweite Teil der Arbeit behandelt den Umgang mit der Optimierungssoftware ״Hyper- Study“ der Firma Altair Engineering. Dabei gilt es zunächst das Programm zu beschreiben, Beispiele zu definieren und die Lösungsmöglichkeiten darzustellen. Hierbei sei zu beachten, dass seitens der Universität der Bundeswehr München keinerlei Erfahrung mit komplexeren Solver-Optimierungstools, wie Hyper-Study, vorliegt. Deshalb ist die Beschreibung der einzelnen Schritte besonders ausführlich dargestellt, sodass ein weiteres Ziel dieser Arbeit die Einführung in die Software beinhaltet. Schließlich erfolgt die Optimierung mit u. a. verschiedenen genetischen Algorithmen. Dabei werden im Rahmen von Hyper-Study verschiedene Methoden vorgestellt. Aufgrund der engen Verknüpfung von Altair Hyper-Mesh mit Hyper-Study werden gewisse Grundlagen beim Umgang mit Altair Hyper-Mesh beim Leser vorausgesetzt. Zuletzt lassen sich die hier gewonnen Ergebnisse noch in Form eines Ausblicks darstellen, der für weitere komplexere Optimierungen verwendet werden kann.

1. Einleitung

Im Zuge der Wirtschaftlichkeit eines Unternehmens ist bei der Auslegung der meisten strukturmechanischen Bauteile der Einsatz der Finiten-Elemente-Methode nicht mehr wegzudenken. In den letzten Jahrzehnten hat sich diese Methode aufgrund der steigenden Rechnerleistung stark weiterentwickelt. Dabei hat sich Software von den verschiedensten Herstellern auf dem Markt etabliert. Auch die möglichen Funktionen sind vielfältig und reichen von linear statischen Berechnungsansätzen hin zu komplexen nichtlinearen oder kinematischen Analysen. Neben der Hauptaufgabe, nämlich der Berechnungen der Beanspruchungen durch die jeweiligen “Solver“ der FEM-Programme, gibt es u. a. auch die Möglichkeit, eine Optimierung des Bauteils aufgrund verschiedener Aspekte durchzuführen. Diese kann z. B. in Form einer Gestaltoptimierung durchgeführt werden. Diese klassischen Optimierungsmethoden sind bereits in den meisten gängigen Finite-Elemente-Programmen hinterlegt. Der Leser sollte daher über die Grundlagen im Umgang mit Altair Hyper-Mesh oder anderer FEM-Software verfügen, um den hier gezeigten Beispielen sinngemäß folgen zu können. Ein aus rein mathematischer Sicht weitaus komplexerer Optimierungsvorgang ist jedoch die Optimierung strukturmechanischer Bauteile durch die Lösungsklasse der sogenannten genetischen bzw. evolutionären Algorithmen. Während bei der klassischen Optimierung die Durchführung des eigentlichen Optimierungsprozesses durch den Anwender im Vordergrund steht, sind Optimierungsmethoden, die auf evolutionären Algorithmen basieren, in der Lage, Fehler nach dem Evolutionsprinzip in nachfolgenden Analysen automatisch zu verbessern. Dabei greift die Software auf die in der Informatik bekannten Algorithmen zurück. Auch in anderen Bereichen, wie z. B. der Schaltungstechnik oder der Mess- und Regelungstechnik sind diese Algorithmen im Einsatz. Branchenübergreifend basieren diese jedoch auf dem Prinzip der biologischen Evolution. Bezieht man dieses Prinzip auf die Technik und insbesondere den Einsatz von Computern, so spricht man auch von maschinellem Lernen, also dem selbstständigen Lernen einer Maschine aus zuvor gemachten Fehlem. Dieses evolutionäre Prinzip nach dem Vorbild des natürlichen Selektionsprinzips wird in dieser Arbeit mit den evolutionären Algorithmen in Zusammenhang gebracht. Im Rahmen einer Literaturrecherche sind daher die wichtigsten Kenntnisse, die zur Bearbeitung der Aufgabenstellung mit Hyper-Study notwendig sind, zu selektieren.

Um mit der Durchführung praxisnaher Beispiele beginnen zu können, ist zunächst eine Reihe von theoretischen Gmndlagen notwendig, die im folgenden Kapitel definiert werden.

2. Theoretische Grundlagen

In diesem Kapitel werden die wichtigsten Grundlagen zusammengefasst, um die Thematik der Optimierung der in dieser Arbeit gezeigten Beispiele veranschaulichen zu können. Dabei wird die Herkunft des Begriffes der evolutionären Algorithmen als Startpunkt gewählt. Anschließend erfolgt der Bezug zu technischen Zusammenhängen und folglich die Einordnung in den Kontext dieser Arbeit. In den nächsten Kapiteln werden die beiden wichtigsten Verfahren, nach denen in der Natur und in allen technischen Aufgabenstellungen optimiert wird, vorgestellt. Auf diesen basieren die meisten Optimierungsmethoden und Werkzeuge, die in FE-Programmen enthalten sind und die sich nach dem heutigen Stand der Technik auf dem Markt industriell etabliert haben.

2.1 Evolutionäre Algorithmen (EA) auf Basis der Evolutionsstrategie

Da die hier gezeigte Optimierung mit der Optimierungssoftware ״Hyper-Study“ sogenannte evolutionäre Algorithmen (EA) beinhaltet, ist zunächst die Herkunft dieses Begriffes zu klären.

Nach (1), (4), (14), (17) geht dieses Prinzip auf die Evolutionstheorie von Charles Darwin zurück. Darwins Theorie wurde tausendfach bestätigt und gilt als fundierteste Theorie der modernen Biologie (2). Die Theorie soll an dieser Stelle nicht weiter vertieft werden.

Abbildung in dieser Leseprobe nicht enthalten

Bild 1: Der Evolutionsforscher Charles Darwin (*1809 - 11882 ־ ) begründete die moderne Evolutionstheorie. Auf seinem Werk basieren auch die in dieser Arbeit vorkommenden modernen EA.(3)

2.2 Der Ursprung evolutionärer Algorithmen

Bereits seit den 1950er und den frühen 1960er-Jahren hat man die Grundmechanismen der biologischen Evolution versucht im Grundkontext zu abstrahieren und auf praktische Anwendungen zu beziehen (4). Dabei entstanden sehr viele erste Ansätze, die als Vorläufer der heutigen EA gelten. Beispielsweise die sog. EVOP-Methode von Box (Prozessoptimierung), die Verfahren von Bremermann oder die heute maßgeblichen Verfahren von Rechenberg und Schwefel, die an der Optimierung des Windwiderstandes eines Stromlinienkörpers arbeiteten und dabei auf Probleme gestoßen sind, die mathematisch nicht lösbar waren. Dadurch kam man auf die Evolutionsstrategie in Bezug auf praktische Anwendungen, bei dem der Stromlinienkörper nach dem Vorbild der Natur in einfacher Form immer weiter ״von Hand“ optimiert wurde. Die Fehlschläge in den frühen 1960er Jahren sind oft auf zu schwache Rechnerleistungen zurück zu führen. Lawrence J. Fogel, Alvin J. Owens und Michael J. Walsh suchten in San Diego nach einer Möglichkeit, künstlich intelligente Automaten zu entwerfen (4). Diese sollten Problemlösungen für die jeweils gegebene Aufgabenstellung generieren. Die Pioniere befassten sich daher mit SymbolvorhersageExperimenten. Dabei wurde ein evolutionäres Entwurfskonzept entwickelt, bei dem die Hauptoperationen die Mutation und die Selektion bilden. Dabei spricht man von Evolutionäre Programmierung (EP). Man versprach sich außerdem, das Phänomen ״künstliche Intelligenz“ besser verstehen zu können. John H. Holland gelang es schließlich, bei der Untersuchung einer Theorie zu adaptiven Systemen, seine Problemstellung mit einem Genetischen Algorithmus (GA) zu lösen. Diese gehen auf die späten 1960er bis zu den frühen 1970er Jahre zurück. Basierend auf H. Holland sind in Bezug auf die hier behandelte Aufgabenstellung heutzutage die modemen Genetischen Algorithmen und die Genetische Programmiemng besonders interessant. Diese entsprechen nach (4) dem heutigen Stand der Technik.

2.3 Evolutionäre Algorithmen in der Technik

״Evolutionäre Algorithmen sind eine Klasse von Verfahren, mit denen - angelehnt an das Vorbild der biologischen Evolution - Problemlösungen automatisch generiert werden.“ ( (5) s. V )

Die im vorherigen Kapitel genannten Verfahren sind bereits seit Jahrzehnten bekannt und werden auch kommerziell genutzt. Besonders das Verfahren der evolutionären Programmierung ist in der Informatik nicht mehr wegzudenken. Auch in der Mathematik im Bereich der Kombinatorik kommt EP vor. Sie behandelt dabei das ״klassische Rundreiseproblem“. Beispielsweise wird eine Rundreise durch 100 Städte gesucht, bei dem jede Stadt nur einmal besucht werden darf und die Tour zum Ausgangspunkt zurückführen muss und die Gesamtlänge minimal sein soll. Der Suchraum umfasst bei diesem Problem 100! verschiedene Lösungen. Das Problem kann mit Permuatationen gelöst werden (4). Auch die meisten Fahrpläne des öffentlichen Personennahverkehrs in den meisten Städten sind auf diese Art und Weise aufgebaut. Es lassen sich eine Vielzahl von Problemstellungen aus den verschiedensten Bereichen finden, die vor allem heutzutage interessant sind. Diese reichen von dem Bereich der Neuro informatik und Neurobiologie über die Optimierung von Struktur und Parametern künstlicher Neuronale Netze, Datenbanken und automatischer Spracherkennung, was angesichts der vernetzten globalisierten Welt immer mehr Nachfrage erfahren hat. Nach (4) sind im naturwissenschaftlich-technischen Bereich Entwurfsaufgaben bei der Entwicklung von Mikroprozessoren in der Elektrotechnik und Datenverarbeitung, die Pfadplanung für mobile Roboter im Bereich digitale Fabrik und Fertigungstechnik oder Regelungstechnische Anwendungen zu nennen. Betriebswirtschaftlich lassen sich diese Lösungsklassen ebenfalls nutzen, indem sie zur Losgrößen und Auftragsreihenfolgeplanungen in der Produktion (PSS-Systeme), der Personaleinsatzplanung, der Kundenklassifizierung, der Kraftwerkseinsatzplanung oder der Absatzprognose genutzt werden können. Diese und viele weitere Bereiche hier aufzulisten ist nicht das Ziel dieser Arbeit, sie zeigt jedoch auf, wie vielseitig einsetzbar diese Lösungsverfahren sind. Trotz vielfältiger Möglichkeiten fallen jedoch trotzdem Gemeinsamkeiten der unterschiedlichen Bereiche auf. Man kann festhalten, dass die EA - als eine Klasse von Verfahren - immer dann zum Einsatz kommen können, wenn eine Zielfunktion mit einer festgelegten Ausgangsfünktion abgebildet und optimiert werden soll. Speziell ist dies bei hoher Komplexität eines technischen Systems gegeben.

Dies ist auch der Ansatz, der für die praxisnahen Beispiele mit der Optimierungssoftware Hyper-Study von Altair im Rahmen dieser Arbeit wichtig ist.

2.4 Begriffserklärungen und thematische Einordnung

Die Klasse der evolutionären Algorithmen unterscheiden sich nach (4) in vier Hauptströmungen. Mit ״Evolutionäre Lösungsklassen“ als Oberbegriff gliedern sich diese wie folgt:

Evolutionäre Lösnnqsklassen:

- Genetische Algorithmen (GA) bzw. Evolutionäre Algorithmen (EA)
- Genetische Programmierung (GP) (eine moderne Unterform von GA)
- Evolutionsstrategien (ES)
- Evolutionäre Programmierung (EP)

Für diese Arbeit sind vor allem die genetischen Algorithmen relevant, da diese in vielen technischen Anwendungen Vorkommen und auch die Klasse von Lösungsverfahren sind, die in den praxisnahen Beispielen mit der Software Hyper-Study verwendet werden. Genetische Algorithmen (GA) meint in diesem Zusammenhang und in dieser Arbeit immer den praktischen Bezug zu Hyper-Study oder anderen Optimierungsprogrammen. GA ist eine Unterform der EA. Der Begriff EA beinhaltet den Oberbegriff für die auf Basis der Evolutionstheorie basierenden Algorithmen. EA hat hier einen theoretischen Bezug und wird im Rahmen der Literaturrecherche verwendet. In der späteren Anwendung spricht man grundsätzlich von GA. Da es hier jedoch Unterschiede bei den Lösungscharakteristika gibt, spricht man in den theoretischen Grundlagen aufgrund verschiedener Abwandlungen von den EA. In Hyper-Study werden jedoch GA verwendet. Im weiteren Verlauf dieser Arbeit werden also beide Begriffe und Abkürzungen (GA und EA) verwendet.

Im Folgenden sollen nun die wichtigsten Begriffe erklärt werden, die für die Anwendungen benötigt werden und zum anderen im weiteren Verlauf der Arbeit immer wieder mal Erwähnung finden. Die nachfolgende Tabelle stellt dabei nach (4) die wichtigsten Begriffe gegenüber.

Abbildung in dieser Leseprobe nicht enthalten

2.5 Stand der Forschung und Technik im Bereich Optimierung mit EA in der Strukturmechanik

In Bezug auf die hier verwendete Software Hyper-Study gibt es verschiedene Möglichkeiten, die im Programm gewählt werden können. Im praktischen Teil dieser Arbeit wird darauf noch genauer eingegangen. Es gibt jedoch in Hyper-Study unter anderem die Möglichkeit, GA zu verwenden. Dies entspricht auch dem heutigen Stand der Technik vergleichbarer Optimierungssoftware. Darauf basierend hat Altair in Hyper-Study bereits als Vorreiter auf dem Gebiet der Optimierung in der Strukturmechanik die Möglichkeit in das Programm integriert, ein kombiniertes Verfahren aus GA und Gradientenverfahren zu wählen. Dieses kombiniert die Vorteile der gängigen Verfahren mit denen der GA. Dies ist bereits ein erster Schritt in Richtung ״Optimierung der Zukunft“ und läuft in Hyper-Study 13.0 bereits nach Beseitigung der Fehler einwandfrei und ist als vollwertiges Tool integriert. Einen großen Schritt weiter gehen in Zukunft die Schwarm- bzw. Partikeloptimierungen. Dies könnte sich nach (6) als zukünftiger Trend etablieren. Diese basieren auf dem gruppendynamischen Schwarmverhalten von Vögeln. Dabei wird nach (6) der Ort, die Geschwindigkeit und die Trägheit des Partikels (also des Vogels) durch Gesetze aus dem Sozialverhalten bestimmt. Bei dieser Theorie wird schließlich davon ausgegangen, dass sich die Gruppe als Ganzes immer aufgrund der verschiedenen Informationen der einzelnen Gruppenmitglieder optimal verhalten wird. Diese Theorie wurde 1995 erstmals von Kennedy und Eberhart vorgestellt. Zu dieser Theorie existieren noch keine Optimierungstools in Hyper-Study oder vergleichbaren Programmen.

2.6 Die grundlegenden Prinzipien als Ausgangspunkt für die weiteren Methoden und Anwendungen in der Optimierung

Die im zweiten Teil der Arbeit verwendeten Algorithmen basieren auf bekannten Prinzipien und gleichen Lösungsmustem. Diese sind vom Lösungsschema her nahezu immer gleich und werden in vielen Anwendungsfallen nur ein wenig abgewandelt. Hier sollen die grundlegenden Optimierungsmethoden, wie z. B. das Prinzip der Mutation und das Prinzip der Selektion, verdeutlicht werden. Auch ist das Ziel der Arbeit, im Rahmen des ersten Teils Beispiele aus dem Bereich der Anwendungen von EA zu finden. Anhand der Beispiele werden die grundlegenden Prinzipien in den folgenden Kapiteln realisiert.

2.6.1 Praxisnahe Anwendungen evolutionärer Algorithmen anhand eines Beispiels aus der Materialmodellierung

Das Ziel dieses Kapitels ist es, anhand von ausgewählten praxisnahen Anwendungen und Beispielen in Bezug auf technische Systeme das Einsatzgebiet dieser Algorithmen besser zu verdeutlichen. Neben der in dieser Arbeit gezeigten praxisnahen Anwendung in einem finite- Elemente-Programm, gibt es in technischen Zusammenhängen eine Vielzahl von möglichen Einsatzgebieten. Aus diesem Grunde wird hier ein Einsatzgebiet ausgewählt, das eng mit dem Einsatzgebiet der Finiten-Elemente-Methode verknüpft ist und einen direkten praktischen Bezug zur FEM hat.

Das Beispiel stammt aus dem Gebiet der Kontinuumsmechanik und beinhaltet eine Aufgabenstellung der experimentellen Mechanik und Materialmodellierung.

Beispiel: Parameteridentifikation von experimentell gemittelten Wertepaaren

Um das Materialverhalten von zunächst unbekannten Werkstoffen klassifizieren zu können, müssen in vielen Fällen in einem ersten Schritt die mechanischen Eigenschaften untersucht werden. Dies geschieht u. a. durch Experimente oder Versuche, die das Materialverhalten quantifizieren. Als weit verbreiteter Versuch sei hier z. B. der uniaxiale Zugversuch zu nennen. Während des Versuches wird das Verhalten des Materials beobachtet. Im Anschluss an den Versuch erfolgt in der Materialmodellierung eine mathematische Formulierung des Modells aufgrund des beobachteten Verhaltens. Diese Simulation des Materialverhaltens erfolgt mit sogenannten rheologischen Modellen. Die Lösung der dabei entstandenen Modellgleichungen erfolgt unter Zuhilfenahme der numerischen Lösungsmethoden, wie z. B. die Finite-Elemente-Methode. Nach der Simulation und der Lösung der Modellgleichungen ist als letzter Schritt im Prozess der Materialmodellierung die Interpretation der Ergebnisse, also ein Vergleich der Modellantwort mit dem realen Systemverhalten zu nennen. Man kann neben der numerischen Lösung in beispielsweise einem FE-Programm auch aufgrund von neu gewonnenen Erkenntnissen eines Materialverhaltens dieses in FE-Code umschreiben und als neues Feature in einem FE-Programm hinterlegen. Dabei richtet sich der durchzuführende Prozess meistens nach dem in Bild 2 gezeigten Ablaufschema.

Abbildung in dieser Leseprobe nicht enthalten

Bild 2: Ablaufschema mit Beispiel (rechts) zur Generierung von FE-Code aus experimentell ermittelten Materialverhalten eines zunächst unbekannten Werkstoffes. Das Beispiel dient zur besseren Veranschaulichung der einzelnen Schritte.

Ein wichtiges Element sei dabei das bereits erwähnte rheologische Modell. Dieses besteht aus mechanischen Systemen, die aus einer Parallel- oder Reihenschaltung von masselosen Feder-, Dämpfer- oder Reibelementen aufgebaut sind und das jeweils betrachtende Materialverhalten symbolisieren. Sie ermöglichen es, konstitutive Gesetze zu formulieren und durch Mehrfachkombination dieser Elemente komplexes Materialverhalten abzubilden. (7) Zur Verdeutlichung sind auf dem nachfolgenden Bild 3 die Modelle (unten) mit dem jeweiligen Materialverhalten (oben) dargestellt. Durch die Kombination der einzelnen Elemente (z. B. die Kombination aus Federn und Dämpfer) lassen sich die gängigsten Materialverhalten, wie z. B. lineare Elastizität, Plastizität, Viskoelastizität oder Viskoplastizität abbilden.

Abbildung in dieser Leseprobe nicht enthalten

Bild 3: Grundlegende Materialverhalten (a bis d) mit dem jeweiligen rheologischen Modell (unten) und der Spannungs-Dehnungs-Antwort bei Belastung (oben).<8>

Bild 3 zeigt von a) bis d) die wichtigsten ratenunabhängigen (a und b) bzw. ratenabhängigen (c und d) Materialverhalten. Modell a) behandelt u. a. das linear-eleastische Materialverhalten. Dieses befindet sich auf der Tangente der Geraden, die durch den Ursprung geht und bis zu den Wendepunkten der Kurve (oben und unten) dieser Grafik reicht. Erkennbar ist hier, dass im Bereich oben und unten (bei Änderung der Steigung) in diesem Bild auch die sogenannte Plastifizierung zu sehen ist. Diese ist nicht Bestandteil der linearen Elastizität, wurde hier jedoch mit aufgeführt. In diesem Fall geht es jedoch um die lineare Elastizität. Dargestellt wird dieses durch eine masselose Feder (unten). Bei dem Spannungs- Dehnungs-Diagramm entspricht der lineare Belastungspfad dem Entlastungspfad. Modell b) zeigt plastisches Verhalten eines Werkstoffes. Der Belastungspfad entspricht hier nicht mehr dem Entlastungspfad. Das rheologische Modell der Plastizität wird aus zwei Federelementen und einem Reibelement gebildet. Viskoelastisches Materialverhalten (Modell c) wird durch das sogenannte ״Drei-Parameter-Modell“ abgebildet. Dieses Modell ist weit verbreitet und besteht aus der Parallelschaltung eines größeren Federelementes und eines MaxwellElementes. Ein Maxwell-Element besteht wiederum aus der Reihenschaltung eines Dämpferund eines Federelementes. Auf eine detaillierte Erklärung der Funktionsweise des 3- Parameter-Modells wird an dieser Stelle verzichtet. Durch die Belastung dieses Modells wird jedoch ein ratenabhängiges, also geschwindigkeitsabhängiges Verhalten erzielt. Bei diesem handelt es sich um eine Kombination von elastischen und plastischen Verhalten. Durch die Kombination von zwei Fedem, einem Reibelement und einem dazu parallel geschaltetem Maxwell-Element lässt sich viskoplastisches Materialverhalten (Modell d) zeigen. Dieses Modell weist eine Ratenabhängigkeit und eine Gleichgewichtshysterese auf. Auch hier wird auf eine detaillierte Erklärung verzichtet, da diese Modelle lediglich der Verdeutlichung der Notwendigkeit der später gezeigten Anwendung evolutionären Algorithmen in diesem Zusammenhang dienen.

Das hier gezeigte Beispiel behandelt das Prinzip der Parameteridentifikation. Dabei sind experimentell ermittelte Wertepaare aus einem beliebigen Versuch gegeben. Ein Identifikationsprogramm wählt Parametersätze aus und rechnet diese nach, sodass sich neue Wertepaare ergeben. Anschließend entsteht eine Fehlerfunktion, die zu minimieren ist. Die besten Parametersätze werden herangezogen, um mit sogenannten Evolutionsverfahren neue, verbesserte Parametersätze zu entwickeln. Dies kann mit dem Mutations-Selektionsprinzip oder der Rekombination erfolgen. Mit diesen Verfahren lassen sich die Parametersätze solange selektieren und verbessern, bis ein zuvor vom Anwender festgelegtes Abbruchkriterium erreicht ist. Nach (9) kann man dies vereinfacht darstellen. Dabei ist ein vereinfachter Ablauf eine zweistufige Gliederung. Diese umfasst im ersten Schritt die Mutation und im zweiten Schritt die Selektion. Dieser zweistufige Prozess ist im folgenden Kapitel erklärt und notwendig, um die gewonnen Erkenntnisse in einen FE-Code zu übertragen. Notwendig wird dies vor allem im Hinblick auf die Rechnerleistung. Da das komplette FE-Programm allgemein bereits eine hohe Anforderung an die Rechnerleistung stellt, ist es im Interesse des Anwenders, dass der übertragene Programmcode aus der numerischen Lösung aus ergebnistechnischer Sicht so genau und qualitativ hoch wie möglich, aber aus rechenzeitlicher Betrachtungsweise so gering wie möglich ausfällt, da sonst die Rechenzeit stark ansteigt und unter Umständen durch Abbruch des im FE-Programm implementierten Solvers erst gar keine Lösung durch das FE-Programm zustande kommt. Anhand des Beispiels in diesem und im folgenden Kapitel kann man erkennen, wie eng die Themengebiete Kontinuumsmechanik / Materialmodelle und FEM miteinander verbunden sind.

Im weiteren Verlauf werden nun die beiden wichtigsten Verfahren erklärt, auf der jeder für diese Arbeit wichtiger Optimierungsvorgang basiert und die Unterschiede anhand eines Beispiels verdeutlicht.

2.6.2 Optimierung anhand des Mutations-Selektionsprinzip

Das folgende Bild 4 zeigt die Parameteridentifikation nach dem ״Mutations- Selektionsprinzip“.

Abbildung in dieser Leseprobe nicht enthalten

Bild 4: Das Mutations-Selektions-Prinzip zur Parameteridentifikation, hier dargestellt in 5 Schritten.(7)

Die folgenden Begriffe, die zur Erklärung des Modells notwendig sind, wurden bereits in der Begriffserklärung tabellarisch erläutert.

Schritt 1) Gegeben ist ein sogenannter Eltern-Variablensatz ״E<g>“. Dieser stammt aus einer Generation ״g“. Um den Eltemvariablensatz E<g> wird ein Kreis mit dem Radius ״V“ erzeugt.

Schritt 2) ß-fache Modifikation des Radius N lassen ß-neue Kreise entstehen, die normalverteilt um den ersten erzeugten Kreis aus Schritt 1 streuen. Man spricht hier auch von Mutation, also mehrfache Erzeugung der Kreise.

Schritt 3) Aus der Generation g entstehen ß-Nachkommen durch zufällige Selektion eines Punktes auf jedem der erzeugten Kreise.

Schritt 4) Es wird die Qualität aller Nachkommen geprüft und der beste Nachkomme (hier schwarz) mit dem zugehörigen Radius (schwarzer Pfeil) gemerkt und ausgewählt.

Schritt 5) Der selektierte Variablensatz aus Schritt 4) wird zum neuen Eltemsatz gewählt und mit ״Zľ'"+/'“, also der Generation ״g +1“ bezeichnet. Es handelt sich dabei um die zweite Generation. Anschließend wird das Verfahren mit dem korrespondierenden Radius von 1 wiederholt und der Vorgang beginnt erneut, bis ein zuvor festgelegtes Abbruchkriterium erreicht wird.

Man kann sich das Mutations-Selektions-Prinzip auch beispielhaft anhand eines Reisenden vorstellen, der von Europa nach Asien über den Landweg reisen möchte. Dieser setzt sich einzelne Etappen, um das Ziel zu erreichen. Der Reisende startet Z. B. in Deutschland und reist von dort nach Russland. In Russland angekommen reist er von dort aus weiter nach bspw. Kasachstan und von dort schließlich nach China.

Bei der Betrachtung dieses Prinzips fällt auf, dass ein definierter Ausgangspunkt (z. B. durch einen experimentell gemittelten Datensatz) und ein Endpunkt (z. B. ein zu erreichendes Abbruchkriterium) definiert sein muss.

2.6.3 Optimierung nach dem Prinzip der Rekombination

Die Parameteridentifikation von experimentell ermittelten Wertepaaren kann auch mithilfe des Prinzips der sogenannten ״Rekombination“ erfolgen. Auf Bild 5 wird dieses Prinzip dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Bild 5: Das Prinzip der Rekombination, hier erläutert in 4 Schritten.(7)

Schritt 1) Voraussetzung sind 2 verschiedene Eltemvariablensätze E!<g> ≠ E2<g> der Generation g

Schritt 2) Der Abstand dieser Variablensätze wird halbiert und als Mittelpunkt eines Kreises mit dem Radius r herangezogen. Die beiden Eltemvariablensätze liegen nun auf dem erzeugten Kreis.

Schritt 3) Es werden zufällig mit gleicher Wahrscheinlichkeit Punkte auf den Kreis gesetzt (RI bis R5). Dadurch entstehen neue Variablensätze, also Nachkommen.

Schritt 4) Die Qualität der Nachkommen wird geprüft und die beiden besten ausgewählt. Diese werden zu den Eltern E1<g+1> und E2<g+1> der Generation g+1. Die restlichen zufällig gesetzten Nachkommen werden verworfen. Das Verfahren wird nun von Schritt 1 wiederholt.

Die steigende Genauigkeit dieses Verfahrens ergibt sich aus den immer kleiner werdenden Kreisen, die sich durch mehrfachen Durchlauf des Verfahrens ergeben. Aus diesem Gmnde lässt sich das Prinzip der Rekombination auch hier durch einen Reisenden erklären, fn diesem Beispiel startet der Reisende im Weltraum. Er hat als Ziel die Stadt München. Der Reisende entscheidet sich für den Planet Erde. Anschließend wählt er den Kontinent Europa. Danach grenzt der Reisende das Land ein und entscheidet sich für Deutschland. Anschließend wählt er das Bundesland Bayern und schließlich die Stadt München aus.

Unterschiede dieser beiden gezeigten Verfahren werden bereits bei der Durchführung deutlich. Das Mutations-Selektions-Prinzip basiert auf einer Mutation, es werden also um 1 Eltemteil mehrere Kreise gesetzt. Bei der Rekombination hingegen gibt es 2 Eltemteile, aber nur einen Kreis.

2.6.4 Grundsätzliche Vor- und Nachteile von EA als Optimierungsmethode

Die hohe Variantenvielfalt und das breite Anwendungsspektrum der EA als Lösungsklasse wirft die Frage auf, wo die Grenzen der Verfahren bei einem praktischen Einsatz liegen. Bei den meisten Lösungsverfahren zu Problemstellungen der Strukturmechanik, wie z. B. die Finite-Elemente-Methode, wird dem Anwender schnell bewusst, dass hier die Grenze bei der Rechenzeit liegen muss. Dies spielt auch für die Problemstellungen mit Hyper-Study im weiteren Verlauf dieser Arbeit eine Rolle. Die Vor- und Nachteile in Bezug auf die einzelnen Lösungsstrategien in Hyper-Study werden in einem anderen Kapitel gesondert behandelt, da es dabei nur um die praxisnahen Anwendungen im Bereich FE geht. Hier sollen grundsätzliche Vor- und Nachteile im Rahmen der theoretischen Grundlagen bei Optimierungen jeglicher Art erarbeitet werden.

Die nachfolgende Tabelle nach (4) soll einen Überblick über die Vor- und Nachteile der EA als Lösungsverfahren im Bereich der Optimierung geben, sodass diese auch als Anhalt für Problemstellungen verwendet werden können, die nicht im Bereich der Optimierung in der Strukturmechanik liegen.

Abbildung in dieser Leseprobe nicht enthalten

2.7 Verwandte Optimierungsprinzipien

Im Zuge der theoretischen Grundlagen ist es auch notwendig, sich einen Überblick über ähnliche algorithmische Verfahren zu verschaffen. Dazu gehören Verfahren, die eine hohe Ähnlichkeit zu den evolutionären Algorithmen aufweisen und gleichzeitig jedoch als ״Konkurrenten“ in der praktischen Optimierung gelten. Der nach Ansicht des Autors wichtigste Unterschied zu den EA liegt jedoch in der praktischen Nutzung dieser Algorithmen. Während EA und weitere komplexere Abwandlungen von EA in Finite- Elemente-Programmen hinterlegt sind, tauchen die unten stehenden Methoden beispielsweise in Hyper-Study nicht auf. Trotzdem sollen diese im weiteren Verlauf des Kapitels gezeigt werden, da diese auf anderen Fachgebieten genutzt werden und durchaus Potential besitzen, auch im Maschinenbau weiter praxisrelevant zu werden, als dies bis jetzt der Fall ist.

Wie bereits erwähnt beschränkt sich dieses Kapitel auf die praktische Optimierung. In diesem Bereich gibt es neben den in dieser Arbeit behandelten evolutionären Algorithmen (EA) noch Simulated Annealing (SA), Record-to-Record Travel (RR), die Threshold Accepting (TA), und den Sintflut-Algorithmus (Sí) (4). Im weiteren Verlauf sollen nun die Verfahren kurz erklärt werden.

2.7.1 Gemeinsamkeiten der Verfahren

Die genannten Verfahren weisen alle auf der abstrakten Ebene ein ähnliches Ablaufschema auf, sodass sich dieses gut in einem Kapitel zusammenfassen lässt.

Ausgangspunkt der Verfahren ist nach (4) eine, häufig stochastisch bestimmte, Lösung. Anschließend generiert man aus der alten Lösung eine Neue, die sich jedoch von der vorigen nur minimal unterscheidet. Die neue Lösung liegt dann in einer sogenannten ״Nachbarschaft“ zur alten Lösung, die im Vorfeld definiert wurde. Im nächsten Schritt werden beide Lösungen miteinander verglichen und untersucht. Dabei findet vor allem ein Vergleich hinsichtlich der Zielfunktionswerte statt. Danach erfolgt ein Entscheidungsprozess, ob die neue Lösung näher an der Zielfunktion liegt, als die alte Lösung. Falls dies der Fall ist, wird die alte Lösung durch die neue Lösung ersetzt und der Prozess wird von der neuen Lösung als Ausgangspunkt wiederholt. Falls die neue Lösung ״schlechter“ als die alte Lösung ist, wird diese verworfen und von der alten Lösung aus weitergesucht. Im Fortschreiten des Optimierungsprozesses werden die Qualitätsanforderungen an die Lösungen stetig erhöht. Auch bei diesem Verfahren wird ein Abbruchkriterium gesetzt, sodass der Vorgang nach einer endlichen Laufzeit endet.

2.7.2 Simulated Annealing (SA)

Unter den aufgezählten Methoden handelt es sich bei Simulated Annealing (SA), ähnlich wie bei den EA, um ein naturanaloges Verfahren (4). Der Unterschied zu EA liegt jedoch darin, dass SA nicht auf dem Prozess der Evolution basiert, sondem hier das Abkühlen und Auskristallisieren einer Schmelze als Vorbild dient. SA wird vor allem als Optimiemngsverfahren für kombinatorische Problemstellungen herangezogen. ״Annealing“ meint in diesem Zusammenhang das Abkühlen eines physischen Körpers von der Schmelze zum Festkörper. Beispielhaft könnte man sich die Bildung eines Kristalls aus einer geschmolzenen Substanz oder das Abkühlen eines Werkstoffes im Eisenkohlenstoffdiagramm vorstellen. Anhand dieser Beispiele wird nun die Molekülbewegung betrachtet. Im Bereich der Schmelze können sich die Moleküle nahezu frei bewegen. Mit abnehmender Temperatur sinkt auch deren Bewegungsfreiheit. Beim langsamen Abkühlen erreicht die Substanz ein thermisches Gleichgewicht mit geringerem Energieniveau. Beim schnellen Abkühlen ergibt sich eine verfestigte Substanz mit höherem Energieniveau. Abgeleitet daraus ergibt sich beim Anwenden des Verfahrens der sogenannte Kontrollparameter T. Dieser legt die Schrittweite fest, mit der, abgeleitet aus dem Beispiel, abgekühlt wird. Es findet also eine iterative Anwendung statt. Die Lösung für kombinatorische Optimierungsprobleme ist eine Sequenz. Es werden also mehrere Lösungen (Sequenz) untersucht. Aus dem Bereich des Abkühlens ergeben sich daher verschiedene Analogien. Unter anderem entspricht die Zielfunktion dem Energieniveau beim Abkühlen, die Suche nach den möglichst besten Lösungen entspricht der Suche nach dem Systemzustand der minimalsten Energie und die Temperatur T wird zu einem möglichen Kontrollparameter T dieser Methode. Die Lösungssuche basiert auch hier wie im vorigen Kapitel gezeigt auf dem Prinzip der vorher definierten ״Nachbarschaft“. Simulated Annealing (SA) ist heutzutage eine weit verbreitete Optimierungsmethode und findet vor allem bei Rundreiseproblemen, Entwerfen flexibler Fertigungszellen oder Chipdesign Anwendung (4).

2.7.3 Threshold Accepting (TA)

Threshold Accepting (TA) basiert auf dem Prinzip des Abkühlens von SA. Das Verfahren TA ist lediglich in ganz wenigen Aspekten unterschiedlich, die hier vernachlässigt werden können. TA gilt als Erweiterung von SA mit kleinen unwesentlichen Vereinfachungen beim Lösungsablauf und kleineren Unterschieden, die nach (4) folgende Vorteile im Vergleich zu SA ergeben:

- einfache Implemtierung des Verfahrens
- einfache Parameterisierung
- geringere Rechenzeiten
- vergleichbare oder zum Teil bessere Lösungsqualität als bei SA

Entwickelt wurden die Verfahren TA, RR und sí im IBM Forschungszentrum in Heidelberg. Der wesentliche Unterschied von TA zu SA liegt in der Rechenzeit. Dies ergibt sich in der Definition der Entscheidungsregel, also in der Auswahl der Lösungen. Bei SA ist es notwendig einen ״Abkühlungsplan“ zu entwerfen, der über die Güte und Genauigkeit des Verfahrens entscheidet und somit einen Einfluss auf die Rechenzeit hat. An dieser Stelle ist der Ausgangspunkt für die Vereinfachungen von TA, RR und sí erkennbar. Das Verfahren akzeptiert nach (4) jede neue Lösung, die ״nicht viel schlechter“ ist als die alte Lösung. Der Rahmen der Verschlechterung wird durch einen Schwellenwert (״threshold“) T vorgegeben, der während des Ablaufes des Verfahrens schrittweise auf Null verringert wird. Die zulässige Verschlechterung verringert sich so von Schritt zu Schritt, bis irgendwann nur noch verbesserte Lösungen akzeptiert werden. Als Abbruchkriterium wird hier eine maximale Anzahl von Iterationen Imax definiert, die gleichzeitig die Rechenzeitanforderungen senkt. Neben der Anzahl von Iterationen ist auch das Kriterium für die Nachbarschaft zu definieren, ähnlich wie bei SA. Der genaue Lösungsablauf kann aus der Erklärung von SA grundlegend übernommen werden. Das TA-Verfahren hat sich als äußerst effizient im Vergleich zu anderen vergleichbaren Verfahren herausgestellt und kann leicht auf andere Optimierungsprobleme angewandt werden, indem die beiden genannten Kriterien für den jeweiligen Fall neu definiert werden.

2.7.4 Record־to־Record־Travel (RR) und Sintflut-Algorithmus (Si)

Ähnlich wie das Verfahren Threshold-Accepting (TA) basieren auch die beiden Verfahren Record-to-Record-Travel (RR) und Sintflut-Algorithmus (Sí) auf dem Prinzip von Simulated- Annealing. RR und sí sind jedoch als weitere Vereinfachung von TA entstanden.

Der Sintflut-Algorithmus (Sí) lässt sich nach (4) anhand einer Metapher eines Wanderers erklären. Dieser wandert ohne Wanderkarte im Gebirge mit dem Ziel, einen möglichst hohen Gipfel zu erreichen. Zudem ist er kurzsichtig, sodass er nur Höhenunterschiede wahmehmen kann, die in seiner unmittelbaren Umgebung liegen. Eine globale Orientierung fehlt dem Wanderer in dem Beispiel. Beim Wandern setzt nun starker Regen ein, sodass das Land überflutet wird. Leider kann der Wanderer aus dem Beispiel nicht schwimmen, sodass er versucht auf trockenem Boden zu bleiben. Der Wanderer wird aufgrund des steigenden Wasserstandes gezwungen, immer höher zu steigen. Dies macht er solange, bis er schließlich von allen Seiten von Wasser umschlossen ist. Das Ziel bzw. die Hoffnung des Wanderers ist, dass er sich am Ende am höchsten Punkt der imaginären Gebirgslandschaft befindet.

Die Unterscheidung zu dem bereits erläuterten TA-Verfahrens liegt in einer abweichenden Akzeptanzregel. Die Auswahl, ob eine neue Lösung akzeptiert wird oder nicht hängt nicht mehr ausschließlich vom Vergleich der jeweils zu betrachtenden Lösung mit der Zielfunktion ab. Es wird zusätzlich eine Variable w (in dem Beispiel wäre dies bspw. der Wasserstand W) eingeführt, die langsam ansteigt und mit der Zielfunktion verglichen wird. Ähnlich dem Beispiel erscheint es sinnvoll w zunächst stark und später immer geringfügiger ansteigen zu lassen. Dadurch ist es möglich, gegen Ende der Optimierungsphase noch bessere Lösungen als mit TA zu finden. Die Entwickler der Methode sind der Ansicht, dass sí fast genauso gut ist wie TA, jedoch ist die Stabilität der Lösungsqualität geringer als bei TA. Ein Vorteil von Sí ist jedoch die höhere Geschwindigkeit.

Das Verfahren Record-to-Record-Travel (RR) ähnelt stark dem von sí. Auch hier liegt der Unterschied in der Akzeptanzregel. Bei dieser wird jede Lösung, die ״nicht viel schlechter“ ist als die alte Lösung akzeptiert. Ein Vorteil der Verfahren ist, dass sie nur von einem Parameter abhängen. Bei sí ist dies nach dem obigen Beispiel die Regengeschwindigkeit und bei RR die zulässige Abweichung in der Akzeptanz der gefündenen Lösungen. Wählt man nun die Regengeschwindigkeit sehr klein bzw. die zulässige Abweichung sehr groß, so liefern beide Verfahren gute Ergebnisse nach etwas längerer Rechenzeit (4). Stellt man die Parameter umgekehrt ein, so ergibt sich eine kürzere Rechenzeit bei schlechteren Ergebnissen. Beide Verfahren finden u. a. Einsatz in der Produktionsplanung, bei Transport- und Verteilproblemen und verschiedenen Programmieraufgaben. Einen Unterschied zu TA ergibt sich beim Prinzip des Verfahrens selbst. TA basiert auf dem Prinzip des Auskristallisieren der Schmelze. Das Prinzip von RR basiert dagegen auf dem Beispiel mit dem Wanderer. TA zeichnet jedoch eine höhere Flexibilität bei der Anpassung an verschiedene Optimierungsprobleme aus.

2.8 Vergleich der genannten Verfahren zu den EA

Die folgenden Tabellen sollen übersichtlich die in den vorherigen Kapiteln verdeutlichten Verfahren mit denen der EA vergleichen. Darauf aufbauend ist es zudem das Ziel dieses Kapitels, dass man einen Überblick von verschiedenen Methoden und Verfahren erhält, die man nach dieser Arbeit auf unterschiedliche Problem- und Aufgabenstellungen anwenden kann.

Die nachfolgende Tabelle zeigt Gemeinsamkeiten zwischen dem Verfahren sí und zu der Lösungsklasse der EA.

Abbildung in dieser Leseprobe nicht enthalten

In der nächsten Tabelle sind die Unterschiede zwischen den in diesem Kapitel gezeigten Lösungsverfahren und den EA

Abbildung in dieser Leseprobe nicht enthalten

Zuletzt sollen die hier gezeigten Lösungsverfahren mit den EA gegenübergestellt und die Vor- und Nachteile verglichen werden.

Abbildung in dieser Leseprobe nicht enthalten

Wichtig bei der Abgrenzung der vorgestellten Prinzipien zu den EA ist, dass diese bei der Lösungsfindung grundsätzlich anders funktionieren. Im Rahmen dieser Arbeit wurde bereits das ״Mutations-Selektions-Prinzip“ und das Prinzip der ״Rekombination“ vorgestellt. Im weiteren Verlauf dieser Arbeit werden unterschiedliche Methoden und Werkzeuge vorgestellt, die EA enthalten. Alle basieren auf den hier genannten Grundprinzipien. Man findet in der Literatur eine Vielzahl von möglichen Abwandlungen und Anwendungsverfahren, mit denen technische Bauteile optimiert werden können. Ihnen alle gemeinsam ist eines dieser Grundprinzipien. In den meisten Fällen wird es ähnlich aufgegriffen, abgewandelt oder eine Mischform gewählt.

2.9 Multi-Objective-Genetic-Algorism (MOGA)

Die ausführlich beschriebenen EA sind im Bereich der genetischen Optimierung bzw. Programmierung Vorreiter und dienen in der Entwicklungsgeschichte der Algorithmen als Basis für weitere Verfahren. Ein für diese Arbeit relevantes Lösungsverfahren ist die sogenannte Pareto-Optimierung. Die Pareto Optimierung wird in Hyper-Study auch als Multiobjective-genetic-algorism (MOGA) bezeichnet, weshalb in diesem Kapitel die Abkürzung MOGA genutzt wird.

Die Lösungsverfahren, die auf einem MOGA basieren gehören zur Lösungsklasse der EA. MOGA bietet jedoch speziell in Hyper-Study die Möglichkeit, mehrere Optimierungsziele gleichzeitig zu bearbeiten. Ein Einsatz von MOGA ist nur dann gegeben, wenn es mehrere solcher Optimierungsziele (״objectives“) gibt. Bei einer Einzelzieloptimierung kann bspw. der EA verwendet werden, jedoch nicht der MOGA. Eine Vertiefüng der Thematik zum MOGA erfolgt im Rahmen der praktischen Beispiele.

3. Optimierung in der Strukturmechanik

Dieses Kapitel beinhaltet wichtige Optimierungsaufgaben aus dem Gebiet der Strukturmechanik. Zunächst liegt der Fokus auf der Optimierung strukturmechanischer Bauteile im Bereich der Naturwissenschaften und Technik. Dazu wurden nach dem heutigen Stand der Technik wichtige Anwendungen mittels Literaturrecherche herauskristallisiert. Diese gelten auch als Basis für die spätere Durchführung von praxisnahen Beispielen. Den Stand der Forschung und Technik, bezogen auf spezielle EA für die Anwendung der Finite- Elemente-Methode, erfolgt in Kapitel 4 auf Basis der VDI-Richtlinie 6224, da hierfür erst einige Grundlagen notwendig sind. In Kapitel 2 wurde sich überwiegend mit den Definitionen von EA bei vielen verschiedenen naturwissenschaftlichen Optimierungsaufgaben beschäftigt und alle notwendigen Grundlagen auf diesem Gebiet gelegt. Jetzt geht es darum, die Kenntnisse der EA-Prinzipien mit anderen bekannten mathematischen Lösungsprinzipien, wie z. B. die in Kapitel 3.2 aufgeführten, zu verknüpfen, um überhaupt ein geeignetes Verfahren auf das jeweilige Problem finden zu können. Wählt man dann später einen genetischen Algorithmus wird dieser von der Optimierungssoftware, hier z. B. Hyper-Study, während des Berechnungsvorganges selbst durchgeführt. Zunächst sind also einige Kriterien festzulegen, nach denen man Optimierungen durchführen kann. Man sollte sich zunächst ein bekanntes mathematisches Lösungsverfahren überlegen, das auf das zu lösende Problem passt. Dies wird in Kapitel 3.3 gezeigt. Anschließend benötigt man die Kenntnis darüber, welche bspw. physikalischen Parameter zu optimieren sind. Dies wird in diesem Kapitel nicht verdeutlicht, da dies in den praxisnahen Beispielen gezeigt wird. Zunächst wird in Kapitel 3.1 das Optimierungsproblem als solches wissenschaftlich definiert. Dies hilft im späteren Verlauf dabei, die sogenannten ״Designvariablen“ einfacher finden zu können.

3.1 Optimierungsprobleme

Im Rahmen der Arbeit sollte vor der praktischen Durchführung mit einer Optimierungssoftware zunächst das Optimierungsproblem als solches wissenschaftlich definiert werden.

(12) definiert den Begriff ״Optimierungsproblem“ formal wie folgt:

״Die Menge aller möglichen Lösungskandidaten hat klar definiert zu sein und für jeden Lösungskandidaten muss auf irgendeine Art und Weise seine Güte oder Qualität als mögliche Lösung eindeutig bestimmt werden können. Damit können die verschiedenen Lösungskandidaten verglichen werden und die Menge der angestrebten globalen Optima resultiert.“ ( (12) s. 39) Dies setzt Forderungen an das Problem selbst voraus, die in der Begriffsdefinition, bezogen auf die Optimierungsprobleme in der Strukturmechanik, bereits enthalten sind.

(13) befasst sich ausschließlich mit der Optimierung von Konstruktionen mit Hilfe von Finite- Elemente-Berechnungen. Daher sollen gewählten die Beispiele, die in dieser Arbeit gezeigt werden, dem Prinzip ״von der Praxis für die Praxis“ folgen und klassische Konstruktionsbauteile abdecken. Ein Optimierungsproblem meint in dieser Arbeit beispielsweise die Optimierung einer Struktur aus gestaltungstechnischer Sicht des Leichtbaus. Beispielsweise die Reduzierung der Masse einer Leichtbaustruktur.

3.2 Allgemeine Optimierungsmethoden strukturmechanischer Bauteile in der Technik und erste Auswahlkriterien

Nach (10) und (5) gibt es im Bereich der Strukturoptimierung bereits seit längeren die verschiedensten mathematischen Verfahren, die sich etabliert haben. Nach (10) muss das ausgewählte Lösungsverfahren zu der jeweils gewählten Lösungsstrategie und der Problemstellung (z. B. Genauigkeiten, Rechenzeiten) passen. Es gibt daher allgemein drei Klassifikationsmerkmale, die dem Anwender helfen, Optimierungsaufgaben richtig einzuschätzen. Dabei kann es sich um lineare, quadratische oder allgemein nichtlineare Optimierungsaufgaben handeln. Die Optimierungen werden dann nach heutigem Stand der Technik meistens mit verschiedenen Arbeitsweisen gelöst. Diese Arbeitsweisen können u. a. mit Gradienten (sogenannte Gradientenverfahren) oder ohne Gradienten durchgeführt werden. Außerdem sind Newton-Verfahren oder andere Näherungsverfahren denkbar. Die meisten Verfahren werden ebenfalls in der Software Hyper-Study abgedeckt. Im praktischen Teil dieser Arbeit findet daher ein Vergleich zwischen den Verfahren statt, auf die an dieser Stelle noch nicht eingegangen werden soll.

3.3 Kriterien für den Einsatz mit der Optimierungssoftware

An dieser Stelle sollen nach (11) im Bereich FEM die klassischen Optimierungskriterien festgelegt und definiert werden. Optimierungen im Bereich der FEM lassen sich in Formoptimierung, Topologieoptimierung und Globale Optimierungsverfahren gliedern (11). Im Bereich der Formoptimierung gibt es CAD-basierte Formoptimierung und FEM-Netz- basierte Formoptimierung und dabei speziell das CAO-Verfahren (11). Topologieoptimierung umfasst die mathematischen und physikalischen Größen wie die Optimierung der mittleren Nachgiebigkeit, der Homogenisierung oder dem E-Modul. Besonders die Masse eines Bauteils ist aus Aspekten des Leichtbaus sehr interessant. Bei den globalen Optimierungsverfahren redet man vor allem von den EA. Diese unterscheiden sich von den ״herkömmlichen“ Gradientenverfahren darin, dass diese auch Änderungen global am Bauteil erkennen und nicht nur bestimmte Bereiche absuchen. Dies wird bei der Anwendung von Hyper-Study noch unter praktischen Aspekten genauer vertieft. Speziell müssen bei HyperStudy oder auch bei anderen Optimierungstools sogenannte ״Designparameter“ oder ״Designvariablen“ festgelegt werden. Dies erfolgt jedoch genauer bei der Durchführung der Optimierung mit der Software.

4. Stand der Forschung und Technik nach VDI-Richtlinie 6224

Evolutionäre Algorithmen sind ein Teil der bionischen Optimierung. Der Fachbereich ״Bionik“ der VDI-Gesellschaft hat dazu aus dem VDI-Handbuch för Bionik die VDI- Richtlinie 6224 ״Bionische Optimierung - Evolutionäre Algorithmen in der Anwendung“ geschaffen. Darin enthalten sind die wichtigsten Begriffe, Formelzeichen, Prinzipien, Anwendungsgebiete und Durchföhrungen. Aufgeteilt ist die Richtlinie in zwei Teile. Teil eins behandelt neben der allgemeinen Einführung der EA auch Anwendungsgebiete, beispielsweise aus der Physik. Der zweite Teil behandelt die EA nach heutigen Erkenntnissen bezogen auf die Finite-Elemente-Methode. Aus diesem Grund beschäftigt sich dieses Kapitel ausschließlich mit der VDI-Richtlinie, da diese die Anwendung der EA nach aktuellem Stand der Forschung und Technik auf Finite-Elemente-Anwendungen bezieht. Des Weiteren behandelt es die zentrale Frage, wie die EA in Finite-Elemente-Methoden implementiert sind und wie diese den Optimierungsprozess und somit die Verbesserung eines strukturmechanischen Bauteils durchführen. Das Kapitel versteht sich jedoch nicht als reine Zusammenfassung der VDI-Richtlinie, sondem vielmehr als Hilfsmittel zur anwendungsbezogenen Orientiemng auf den in dieser Arbeit durchzuföhrenden Anwendungsfall mit der Software ״Hyper-Study“. Zusätzlich zeigt es die Vielfältigkeit der EA auf. Deshalb erfolgt die Einordnung dieses Kapitels auch als Anschluss zu den allgemeinen Erklärungen und Anwendungen, die in den vorherigen Kapiteln charakterisiert wurden. Es greift die Thematik aus Sicht der VDI-Richtlinie auf, sodass sich manche Dinge - jedoch dann aus rein technischer Sicht - wiederholen können. Der zweite Teil des Kapitels, der auch dem zweiten Teil der Richtlinie entspricht, beschäftigt sich ausschließlich mit dem Bezug zur Finite-Elemente-Methode. Die VDI-Richtlinie legt hier den Grundstein för den theoretischen Einsatz der EA durch beispielsweise Wahl der zu optimierenden Spannungen und die Vertiefung der gängigsten Verfahren, die im weiteren Verlauf vorgestellt werden.

4.1 Einführung, Realisierung, allgemeine und technische Anwendungen mit EA nach VDI

Nach (14) VDI sind EA bionische Optimierungsverfahren, deren Ursprung auf die 1960er- Jahre zurückzuführen ist. Mit den EA ist es möglich, schwierige Optimierungsprobleme zu lösen, für die keine Standardverfahren existieren. Zurückzuführen ist die Grundidee der EA auf die Prinzipien der darwinschen Evolution ״survival of the fittest“. Voraussetzung ist dabei die genetische Variation. Diese kann durch zwei Prozesse erfolgen, die bereits in dieser Arbeit vorgestellt wurden: Die Rekombination und die Mutation. EA verwenden genau diese Prinzipien, sodass die Variation das genetische Material (sog. ״Diversität“) und die Selektion die ״Richtung“ vorgibt.

Nach VDI-Richtlinie 6224 existieren viele Anwendungsgebiete, in denen die EA zur Optimierung eingesetzt werden können. Beispielhaft sei aus dem Fachgebiet Physik im Bereich der Optik die Sammellinse eines lichtdurchlässigen Glaskörpers zu nennen. Dabei soll, anhand einer fiktiven Aufgabenstellung die Form des Glaskörpers so verändert werden, dass ein parallel einfallendes Lichtbündel in einem einzigen Punkt auf einer Projektions fläche gebündelt wird. Der Algorithmus erzielt hierbei bei steigender Dauer der Berechnung eine Verbesserung des Brennpunktes der Linse. Auf eine detaillierte Formulierung dieses Beispiels wird an dieser Stelle verzichtet. Wichtig ist, dass sich am Ende ein mathematisches Problem ergibt, dass nur mit iterativen Verfahren gelöst werden kann. EA greifen also vor allem bei technischen Problemstellungen auch an Stellen an, wo gängige Lösungsverfahren (Kapitel 3) an ihre Grenzen stoßen oder sogar versagen. Die sich im obigen Beispiel ergebende Zielfünktion soll möglichst gut an das gewünschte, ideale, Ergebnis reichen, sodass diese immer wieder optimiert werden muss. Dazu soll eine Evolutionsstrategie benutzt werden. Dieser Zyklus ist in Bild 6 schematisch dargestellt und ist charakteristisch für diese Gruppe der Algorithmen.

Abbildung in dieser Leseprobe nicht enthalten

Bild 6: Schematischer Ablauf einer Verbesserung der mathematischen Zielfunktion auf einer Evolutionsstrategie beruhenden genetischen Algorithmus.

Die Lösung des hier angewandten EA erfolgt wie im Beispiel der Parameteridentifikation mittels einer Abwandlung des bekannten Mutations-Selektions-Prinzips und des Prinzips der Rekombination. Bei der Initialisierung werden ein Startpunkt und die Strategieparameter festgelegt, die in der Evolutionsstrategie verwendet werden sollen. Beispielsweise lassen sich die Anzahl der Nachkommen, die Mutationsstärke oder die Zahl der Eltern steuern. Bei der Variation werden die zu optimierenden Varianten des Prozesses oder des Objektes durch Rekombination und Mutation der Eltern generiert. Diese erzeugt kontinuierlich neue Nachkommen. Dabei findet gleichzeitig eine Suche im Parameterraum statt, bei der die besten Individuen identifiziert werden. Dies ist Aufgabe der Selektion, die dem Evolutionsprozess die Richtung vorgibt. Ist das zuvor festgelegte Ergebnis der Zielfunktion passend, so erfolgt der Abbruch. Falls nein beginnt der Prozess bei der ״Verdichtung“ bzw. ״Adaption“ erneut. Dort wird die Lage der Eltempaare so optimiert, dass man dem gesetzten Optimum schnell näher kommt. Dies kann man beispielsweise über die Mutationsstärke steuern. Hat man das Optimum fast erreicht, wird die Schrittweite bei der Verdichtung reduziert.

Als Beispiel für eine einfache Evolutionsstrategie (ES) ist nach VDI-Richtlinie 6224 der sogenannte CMSA-ES zu nennen, dessen Pseudocode in den meisten Fällen direkt in ein Programm, wie z. B. Matlab, Maple oder Mathematica, übertragen werden kann. CMSA steht dabei für ״Covariance Matrix Self-Adaption“ (Kovarianzmatrix-Selbstadaption-ES) Auf die Darstellung des Pseudocodes wird an dieser Stelle verzichtet. Der Ablauf lässt sich jedoch grob skizzieren: In der ersten Zeile erfolgt, wie bereits in Bild 6 dargestellt, die Initialisierung der Evolutionsstrategie. Dort erfolgt auch die Eingabe des Abbruchkriteriums. Gesucht ist für den jeweiligen Anwendungsfall allgemein die Optimierung der Zielfünktion. Dies erfolgt in den nachfolgenden Zeilen des jeweiligen Programms, bei denen nacheinander alle bisher gezeigten Schritte (z. B. das Erzeugen von Nachkommen) wie dargestellt durchgeführt werden. Man kann an dieser Stelle ebenfalls einen Lemparameter festlegen, der Einfluss auf die Adaptionsdauer, also die Verdichtung der Mutationsstärke, nimmt. Der Algorithmus wird solange ausgefiihrt, bis das Abbmchkriterium erreicht ist. Der Vorteil einer CMSA-ES ist, dass dieser Algorithmus eine automatische Adaption enthält. Das bedeutet, dass jeder Nachkomme automatisch einen eigenen Satz der optimierten Strategieparameter in sich trägt, den er auf die nachfolgende Generation automatisch ohne explizite Steuerregeln überträgt, wodurch sich Rechenzeit sparen lässt.

4.2 Klassische Aufgabenstellungen aus der Strukturmechanik mittels EA aus der VDI Richtlinie 6224

Nach der VDI-Richtlinie 6224 waren eine der ersten Anwendungen die Konstruktionen im Leichtbau im Gebiet des Maschinenbaus. Dabei stand die Auslegung von Leichtbaustrukturen an optimierten Strukturen im Vordergrund.

Das folgende Beispiel war eines der ersten praxisrelevanten Aufgabenstellungen, bei der die EA wie im zweiten Teil dieser Arbeit zum Einsatz kamen. Daher findet man dieses Beispiel auch in der VDI-Richtlinie 6224 wieder.

Der eingesetzte Algorithmus basiert auf einer multirekombinanten ES, die zur Optimierung eines einseitig gelagerten Kragträgers verwendet wurde. Der Algorithmus basiert also auf den Prinzipien, die bereits in dieser Arbeit vorgestellt wurden. Die Belastung erfolgt gemäß dem folgenden Bild 7.

Abbildung in dieser Leseprobe nicht enthalten

Bild 7: Einseitig eingespannter Kragträger mit Einzelkraft.(14)

Die Aufgabe ist es nun, die Geometrie des Trägers variieren zu können. Als Nebenbedingung wird angenommen, dass die Durchbiegung fl) hier maximal 5% von 1 m betragen darf. Aus diesem Grund wird der Träger, wie in Bild 8 erkennbar, in mathematischen Zylindern aufgebaut

Abbildung in dieser Leseprobe nicht enthalten

Bild 8: Modellierung eines Trägers mit variablen Querschnitt. Die Modellierung erfolgt durch Aufteilung des Trägers in mathematische Zylinder unterschiedlicher Querschnitte. Daraus resultiert die zu lösende Zielfunktion und die anschließende Optimierungsaufgabe nach einem Designparameter.(14)

Aus der Modellierung ergibt sich eine mathematische Zielfunktion, die mit CMSA gelöst werden soll. Auch die Optimierung erfolgt durch den bereits bekannten CMSA. Dabei wird nach dem Designparameter ״niedrige Masse“ optimiert. Im nachfolgenden Bild 9 sind Startgeometrie, Zwischengeometrien, und die Endgeometrie des Optimierungsvorganges nach CMSA zu sehen. Außerdem sind die Massen (rechts) und die Anzahl der Generationen (links) in den jeweils durchgeführten Berechnungsschritten zu erkennen.

Abbildung in dieser Leseprobe nicht enthalten

Bild 9: Mit CMSA optimierter Kragträger aus Bild 7. Zu erkennen sind neben der Anzahl der Generationen (links) auch die Masse (rechts). Diese sinkt von der Startgeometrie (oben) von 20,5kg bis zur Endgeometrie (unten) auf 2,36kg. Dies entspricht einer Massen reduktion von rund 72,6%.(14)

Die Beispiele aus der Physik und Strukturmechanik sind im Grunde verschieden, da sie aus unterschiedlichen Bereichen und komplett unterschiedlichen Anwendungen stammen. Wie man sich jedoch vorstellen kann, lassen sich EA auf eine Vielzahl von Anwendungsgebieten beziehen. Die VDI-Richtlinie enthält noch weitere Fälle, wie z. B. die Kombinatorik und diverse Methoden, um die Parameter der EA (z. B. Selbstadaption der Schrittweite, Adaptive Nachkommenzahl, Mutationsoperatoren oder die Schrittweitenanpassung) zu verbessern. Dies ist jedoch für das Ziel dieser Arbeit nicht relevant, daher dient die VDI-Richtlinie an dieser Stelle als Nachschlagewerk, um beispielsweise Pseudocode anzupassen oder zu programmieren, falls solche Möglichkeiten gewünscht sind. Auf eine Vertiefüng wird daher hier verzichtet.

4.3 Funktion der EA in Finite-Elemente-Methoden

Im zweiten Teil der Richtlinie geht es speziell um die Anwendung biologischer Wachstumsgesetze zur strukturmechanischen Optimierung technischer Bauteile. Auch hier sollen im Vorfeld die Anwendungsbereiche und Prinzipien hervorgehoben werden. Außerdem soll die zentrale Frage geklärt werden, wie die Durchführung und Implementierung der Verfahren in FE-Programmen erfolgt. Zunächst erfolgt die Einordnung in den Gesamtkontext.

4.3.1 Einordnung der Optimierung mit EA in FE-Methoden

Heutige CAD-Programme, wie z. B. Autodesk Inventor Professional verfügen über die Möglichkeit, Optimierungen an Strukturen unter bspw. Gesichtspunkten des Leichtbaus überschlägig durchführen zu können. Auch viele der heutigen FEM-Programme setzen auf diese Funktion. Daher ist auch nach VDI-Richtlinie 6224 die Strukturoptimierung als ein spezialisierter Zweig der Optimierung in FE-Programmen zu sehen. Ziel der biologischorientierten Optimierung in FE-Programmen ist immer die optimale Auslegung eines strukturmechanischen Bauteiles mit den jeweils zuvor festgelegten Randbedingungen. Diese sind oftmals das Gewicht, die Belastbarkeit, die Steifigkeit oder die Lebensdauer. Man kann eine oder mehrere dieser Eigenschaften optimieren, diese bilden dann das zu maximierende oder minimierende Optimierungsziel. Da es sich in den meisten Fällen um technische Bauteile handelt, fällt ein großes Augenmerk auf die Berücksichtigung der Kerbwirkungen im Bauteil. Dies stellt eine Herausforderung an den Algorithmus dar.

Nach VDI gibt es unter den computerbasierten Optimierungswerkzeugen z. B. die Computer Aided Optimization (CAO) und die Soft Kill Option (SKO). Diese modifizieren das Bauteil direkt mit der Finite-Elemente-Methode. Sie bieten die Möglichkeit, die Form bzw. Topologie des Bauteils zu modifizieren. Dies wirkt sich i. A. auf die Homogenisierung der Spannungen aus. Diese gibt es bereits seit 1990 im industriellen Einsatz. Gleichzeitig gibt es bei der Anwendung dieser Verfahren jedoch auch Voraussetzungen, wie Z. B. hohe Rechnerleistungen und erforderliche Fachexpertise der Anwender. Daher gibt es seit 2006 nach (14) aufgrund der Nachfrage nach einfacheren Methoden die ״Methode der Zugdreiecke“. Dieses Verfahren ist besonders breit einsetzbar und nicht nur von Spezialisten anwendbar (14). Es bietet die Möglichkeit, sich in CAD-Systeme implementieren zu lassen. Dadurch ist eine Verankerung geschaffen worden, mit der die bionische Optimierungsmethoden bereits früh im Konstruktionsprozess eingesetzt werden können und maßgeblichen Anteil an der Gestalt des Bauteils haben.

4.3.2 Ursprung der FE-Optimierungsmethoden und die Selbstoptimierung

Die EA arbeiten nach dem Vorbild der Natur. Durch die fortdauernde Evolution in Millionen von Jahren sind die Lebewesen und Individuen ideal auf die natürliche Belastung ausgelegt. Zu den biologischen Kraftträgem gehören nach (14) Bäume, Knochen, Krallen oder Domen. Mithilfe der FEM konnte nachgewiesen werden, dass diese optimal an ihre jeweilige Belastung angepasst sind und für alle die gleichen Gestaltungsprinzipien gelten. (14) Das Design der genannten biologischen Stmkturen enthält ein fundamentales Prinzip. Nach (14) ist bei diesen Stmkturen das Axiom konstanter Spannung wirksam, das für den Aufbau verantwortlich ist. Danach weist der Kraftträger an der Oberfläche eine konstante Spannung über die gesamte Stmktur auf, da es weder Schwachstellen (hohe Spannungen) noch Bereiche mit Unterbelastungen (z. B. durch zu viel Material an manchen Stellen) gibt. Die VDI- Richtlinie nennt hier den Begriff ״adaptives Wachstum“. Am Beispiel eines Baumes lässt sich dieses Phänomen erklären. Bäume registrieren nach (14) durch bauteilinteme Rezeptoren lokale Spannungskonzentrationen und reparieren sich adaptiv wachsend und bilden dabei an überbelasteten Bereichen mit Spannungsspitzen lokal verdickte Jahresringe. Diese reduzieren die Spitzenspannungen gezielt und lokal. Dies entspricht einem Materialhinzufligen. Bäume können jedoch im Gegensatz zu Säugetierknochen von Menschen oder Tieren kein überschüssiges Material entfernen. Dabei ist diese Selbstoptimiemng nicht nur auf die äußere Gestalt beschränkt, denn auch der innere Aufbau der Stmktur passt sich an die jeweilige Stmktur an. Am Beispiel des Knochens wären dies sogenannte adaptive Mineralisiemngsvorgänge, die höher beanspmchte Bereiche des Knochens versteifen. Anders als der Baum kann der im Beispiel betrachtete Knochen auch überschüssiges Material, das z. B. in Bereichen mit geringerer Belastung vorliegt, durch Erweichen entfernen. Aus Sicht der Werkstofftechnik sind biologische Materialien in der Regel als Faserverbundwerkstoffen betrachtet werden, da sie im Allgemeinen aus mehreren Komponenten bestehen. (14) Dies ist wichtig für ihre Berechnung, da es sich nicht um isotropes Materialverhalten handelt. Auch ihr biologischer Aufbau von der Zelle bis zum einzelnen Molekül spricht für diese Interpretation aus werkstofftechnischer Sicht. Speziell bei Bäumen findet man sogar die Ausrichtung der einzelnen Holzfasern entlang der Kraftflussrichtung, ähnlich wie beim Einbau von Teilen aus Kohlefaserverstärktenkunststoffen (CFK). Ähnliches lässt sich auch bei der Untersuchung der Fasern und Lamellen von Knochen hinsichtlich der Ausrichtung feststellen. In Computermethoden übertragen wurde das Axiom der konstanten Spannung (obiges Beispiel) als fundamentale Konstmktionsregel. Dadurch wurde nach (14) die Voraussetzung geschaffen, den Erfahmngsschatz der Natur für die Stmkturmechanik und die Konstmktion nutzbar zu machen. Daraus hervor gingen die industriell bereits etablierten Verfahren CAO (Computer Aided Optimization) SKO (Soft Kill Option) und CAIO (Computer Aided Interni Optimization), die u. a. in dieser Arbeit schon Erwähnung fanden. Bei den Verfahren handelt es sich um Methoden zur Gestalt- und Topologieoptimiemng technischer Bauteile. CAO kommt zum Einsatz, wenn Spannungen homogenisiert werden sollen. Damit lassen sich lokale Spannungsspitzen abbauen und die Lebensdauer des Bauteiles erhöhen. Besonders effektiv eignet es sich für die signifikante Steigerung der Lebensdauer bei schwingender oder wechselnder Beanspruchung. CAO basiert auf Wachstumsprozessen und Schrumpfprozessen, auf die an dieser Stelle nicht weiter eingegangen werden soll. CAO ״Schrumpfen“ und CAO ״Wachsen“ (spannungsgesteuert) sind kombinierbar. Ein mögliches Ergebnis wird in Bild 10 gezeigt.

Abbildung in dieser Leseprobe nicht enthalten

Bild 10: Kombinierung von Schrumpfen (shrinking area) ,und Wachsen (growth area) eines Halbmodells einer zugbeanspruchten Lochplatte. Die höher beanspruchten Bereiche sind dunkelgekennzeichnet.(14)

Aus Sicht des Leichtbaus ist SKO interessant, da es Designvorschläge liefert, die kein unbelastetes Material mehr enthalten. Ein Vorteil von SKO ist, dass der Konstrukteur alle relevanten Kraftpfade identifizieren kann und somit effektiven Leichtbau betreiben kann. Das nachfolgende Bild 11 zeigt die Implementierung einer SKO-Methode im FE-Programm.

[...]

Ende der Leseprobe aus 241 Seiten

Details

Titel
Genetische Algorithmen für die Strukturberechnung und die Optimierung strukturmechanischer Bauteile
Untertitel
Grundlagen, Stärken und Schwächen anhand praxisnaher Beispiele mittels Finite-Elemente-Methode
Hochschule
Universität der Bundeswehr München, Neubiberg  (Fakultät für Leichtbau und Strukturberechnung)
Note
1,0
Autor
Jahr
2016
Seiten
241
Katalognummer
V414113
ISBN (eBook)
9783668652972
ISBN (Buch)
9783668652989
Dateigröße
13893 KB
Sprache
Deutsch
Anmerkungen
- die Arbeit erfolgte als neue Thematik im Bereich des Leichtbaus - die Grundlagen im Bereich der Strukturoptimierung durch den Einsatz evolutionärer Algorithmen aus der Biologie wurde anhand praxisnaher Beispiele aus dem Bereich der Strukturmechanik (z. B. Biegebalkenmodelle) veranschaulicht. - Es wurde das Programm Altair Hyper-Study (Strukturoptimierung) und Altair Hyper-Mesh (FEM-Berechnung und Strukturoptimierung) verwendet. - der Autor hat im Vorfeld eine mehrtägige Schulung beim Hersteller des Programms (Altair) absolviert
Schlagworte
Leichtbau, Strukturberechnung, Finite-Elemente, Finite-Elemente-Methode, Genetische Algorithmen, Algorithmus, Algorithmen, Evolution, Optimierung, Strukturoptimierung
Arbeit zitieren
Niclas Wollweber (Autor:in), 2016, Genetische Algorithmen für die Strukturberechnung und die Optimierung strukturmechanischer Bauteile, München, GRIN Verlag, https://www.grin.com/document/414113

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Genetische Algorithmen für die Strukturberechnung und die Optimierung strukturmechanischer Bauteile



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden