Kritische Analyse ausgewählter Verfahren zur Erstellung von Szenarien


Diplomarbeit, 2005
153 Seiten, Note: 2,3

Leseprobe

Inhaltsverzeichnis

Danksagung

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

Symbolverzeichnis

1. Einleitung

2. Die strategische Planung und der Kampf der Unternehmen mit der Zukunft

3. Allgemeine Darstellung der Szenario-Technik
3.1 Historische Entwicklung der Szenario-Technik
3.2 Wesensmerkmale der Szenario-Technik
3.3 Anforderungen an Szenarien
3.4 Vorgehensweise der Szenario-Technik
3.5 Die Ablaufschritte der Szenario-Technik

4. Verfahren zur Erstellung von Szenarien
4.1 Die Vernetzungsanalyse - Analyse von Wechselbeziehungen
4.1.1 Darstellung und Vorgehensweise der Vernetzungsanalyse
4.1.2 Kritische Betrachtung der Vernetzungsanalyse
4.2 Die Konsistenzanalyse - Ein Verfahren zur Erstellung von Szenarien
4.2.1 Methodische Vorgehensweise der Konsistenzanalyse
4.2.2 Probleme der Konsistenzanalyse
4.3 Die Cross-Impact-Analyse - Charakterisierung und Klassifizierung
4.3.1 Die korrelierte Cross-Impact-Analyse
4.3.2 Kausale Cross-Impact-Methoden
4.3.2.1 Die statisch-kausale Cross-Impact-Analyse
4.3.2.2 Die dynamisch-kausale Cross-Impact-Analyse
4.3.3 Kritische Betrachtung ausgewählter Ansätze der Cross-Impact-Methode...
4.3.3.1 Beurteilung der Cross-Impact-Analyse
4.3.3.2 Problemfelder der korrelierten Cross-Impact-Analyse
4.3.3.3 Problembereiche der kausalen Cross-Impact-Analysen
4.3.4 Überblick über die vorgestellten Verfahren

5. Lösungsansätze für einzelne Problembereiche der dargestellten Verfahren
5.1 Theoretische Grundlagen
5.1.1 Grundlagen der Fuzzy-Set Theorie
5.1.1.1 Grundidee der Fuzzy-Set Theorie
5.1.1.2 Fuzzy-Sets - Begriff der unscharfen Mengen
5.1.1.3 Fuzzy-Inferenz - Das fuzzy-logische Schließen
5.1.2 Die Possibilitätstheorie - Theorie der Möglichkeit
5.1.3 Grundlagen der LPI-Theorie
5.2 Ansätze zur Beseitigung einzelner Problemfelder der Vernetzungsanalyse
5.3 Anregungen zur Beseitigung methodischer Probleme der Konsistenzanalyse...
5.4. Anregungen und Denkanstöße zu den kausalen Cross-Impact-Analysen

6. Zusammenfassende Betrachtung der Verfahren

7. Wertung und Ausblick für die Anwendung der Szenario-Technik

Anhang

Literaturverzeichnis

Eidesstattliche Erklärung

Abbildungsverzeichnis

Abbildung 1: Grundstruktur der strategischen Planung

Abbildung 2: Antizipative und Explorative Szenarien

Abbildung 3: Szenario-Trichter

Abbildung 4: Ablaufschritte der Szenario-Technik

Abbildung 5: Mögliche Deskriptorenverläufe

Abbildung 6: System-Grid

Abbildung 7: Ablaufschema BASICS

Abbildung 8: Überblick der vorgestellten Verfahren

Abbildung 9: Vergleich klassische und unscharfe Menge

Abbildung 10: Zugehörigkeitsfunktion

Abbildung 11: LR-Fuzzy-Intervall (Trapezform)

Abbildung 12: LR-Fuzzy-Zahl (Dreiecksform)

Abbildung 13: Schnittmenge zweier Fuzzy-Mengen

Abbildung 14: Vereinigung zweier Fuzzy-Mengen

Abbildung 15: Addition LR-Fuzzy-Zahlen

Abbildung 16: Wahrscheinlichkeitsverteilung zweier Zustände (w1≤w2)

Abbildung 17: Baryzentrisches Dreieck

Abbildung 18: Wahrscheinlichkeitsintervalle im Baryzentrischen Dreieck

Abbildung 19: Grafische Darstellung der Bewertung der Vernetzungsanalyse

Abbildung 20: 1. Schritt Fuzzy-Inferenz in der Vernetzungsanalyse

Abbildung 21: 2. Schritt Fuzzy-Inferenz in der Vernetzungsanalyse - grafische Darstellung

Abbildung 22: 3. Schritt Fuzzy-Inferenz in der Vernetzungsanalyse - Einfluss des Systemelementes A

Abbildung 23: 4. Schritt Fuzzy-Inferenz in der Vernetzungsanalyse - Definition Aktivsumme

Abbildung 24: 6. Schritt Fuzzy-Inferenz in der Vernetzungsanalyse - Einflussübertragung Aktivsumme

Abbildung 25: 7. Schritt Fuzzy-Inferenz in der Vernetzungsanalyse - resultierende Fuzzy-Menge für die Aktivsumme des Systemelementes A

Abbildung 26: 3. Schritt Fuzzy-Inferenz in der Vernetzungsanalyse - Einfluss auf das Systemelement A

Abbildung 27: 7. Schritt Fuzzy-Inferenz in der Vernetzungsanalyse - resultierende Fuzzy-Ausgangsmenge für die Passivsumme des Systemelementes A

Abbildung 28: Flächeneinteilung Aktivsumme / Passivsumme für die Schwerpunktmethode

Abbildung 29: Konsistenzeinschätzung der Konsistenzanalyse 108 VI Abbildungsverzeichnis

Abbildung 30: Definition Möglichkeit

Abbildung 31: Übertragung der Möglichkeitsverteilung / Identifizierung der aktiven linguistischen Terme

Abbildung 32: Fuzzy-Ausgangsmenge für die Möglichkeit des Eintritts eines Szenarios

Abbildung 33: Flächeneinteilung für die Möglichkeit eines Szenarios

Abbildung 34: Übersicht der Ergebnisse dieser Arbeit

Abbildung 35: Flächeneinteilung Aktivsumme / Passivsumme für die Schwerpunktmethode XVI

Abbildung 36: Flächeneinteilung für die Möglichkeit eines Szenarios XIX

Tabellenverzeichnis

Tabelle 1: Kriterienkatalog

Tabelle 2: Vernetzungsmatrix

Tabelle 3: Beispiel Konsistenzanalyse - Übersicht Deskriptorausprägungen

Tabelle 4: Konsistenzmatrix

Tabelle 5: Erläuterung Nebenbedingung (1) und (2) korrelierte CIA - Beispiel möglicher Szenarien

Tabelle 6: Einflussskala BASICS-PC Programm

Tabelle 7: Eintritts-Matrix und Nichteintritts-Matrix

Tabelle 8: Eintrittswahrscheinlichkeiten der Deskriptorausprägungen

Tabelle 9: Cross-Impact-Werte und ihre zugeordneten Koeffizienten

Tabelle 10: Beispiel statisch-kausale CIA

Tabelle 11: Erster Schritt des ersten Simulationslaufes

Tabelle 12: Zweiter Schritt des ersten Simulationslaufes

Tabelle 13: Dritter Schritt des ersten Simulationslaufes

Tabelle 14: Ergebnisse des ersten Simulationslaufes

Tabelle 15: Ergebnis Szeno-Plan - Szenarien mit Häufigkeitsverteilung

Tabelle 16: Ergebnis Szeno-Plan - A-Posteriori-Wahrscheinlichkeiten

Tabelle 17: Wirkungsskala dynamisch-kausale Cross-Impact-Analyse

Tabelle 18: Inferenzschema

Tabelle 19: Zugehörigkeitswerte Beispiel Fuzzy-Inferenz

Tabelle 20: Inferenzschema für das Beispiel „Eier kochen“

Tabelle 21: Possibilitätsverteilung

Tabelle 22: Possibilitätsmaß

Tabelle 23: Vernetzungsanalyse mit Fuzzy-Zahlen

Tabelle 24: 2. Schritt Fuzzy-Inferenz in der Vernetzungsanalyse - verbal gefüllte Vernetzungsmatrix

Tabelle 25: 5.Schritt Fuzzy-Inferenz in der Vernetzungsanalyse - Regeln der Aktivsumme des Systemelementes A

Tabelle 26: 5. Schritt Fuzzy-Inferenz in der Vernetzungsanalyse - Regeln der Passivsumme für das Systemelement A

Tabelle 27: Wahrscheinlichkeitsintervall für die A-Priori-Wahrscheinlichkeit der Deskriptorausprägungen

Tabelle 28: Beispiel Möglichkeit von Szenarien

Tabelle 29: abgewandeltes Beispiel Möglichkeit von Szenarien

Tabelle 30: verbale Möglichkeitsschätzung der Deskriptorausprägungen

Tabelle 31: Regeln zur Bestimmung des Möglichkeitsgrades eines Szenarios

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Symbolverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Danksagung

Die Erstellung dieser Arbeit machte die Unterstützung verschiedener Personengruppen notwendig, ohne die diese Arbeit nicht erfolgreich hätte angegangen bzw. abgeschlossen werden können.

Zunächst möchte ich mich bei meiner Betreuerin Dipl. Kauffrau Thekla Thiel vom Lehrstuhl für Unternehmensführung und Organisation für eine kompetente Beratung und Betreuung während des gesamten Erstellungsprozesses dieser Arbeit recht herzlich bedanken. Ihr ist es zu verdanken, dass ich durch zahlreiche interessante Gespräche immer wieder neu ermutigt und der schnelle Fortgang dieser Arbeit weiter vorangetrie- ben wurde.

Mein besonderer Dank gilt Prof. Dr. Thomas Spengler, Inhaber des Lehrstuhls für Unternehmensführung und Organisation, für die generelle Betreuung dieser Arbeit. Dieser Dank resultiert nicht nur aus der Unterstützung im Rahmen meiner Diplomarbeit, sondern auch - durch die Durchführung und Betreuung diverser Seminare sowie der Lehre in den Bereichen der Unternehmensführung und Organisation - aus der universitären Ausbildung innerhalb meines Hauptstudiums.

Des Weiteren möchte ich mich bei meinen Freunden bedanken, die mich in dieser etwas schwierigen Zeit unterstützt, motiviert und aufgebaut haben. Namentlich kann ich nicht alle erwähnen, dennoch möchte ich mich bei einzelnen, besonders wichtigen Freunden persönlich bedanken. Ganz besonderen Dank widme ich meiner besten Freundin Clau- dia Seichter. Der Dank gilt besonders dafür, dass sie immer, egal ob gute oder schlechte Zeiten, an meiner Seite stand und für mich da war. Aber auch Niko Zenker, Daniel Chelvier, Florian Kittel, Anja Steinbach und Christopher Schlägel gilt mein Dank für ihre Motivation und Unterstützung.

Abschließend gilt mein herzlicher Dank meinen Eltern Marianne und Siegfried Redlich und meiner Schwester Daniela Redlich, die durch ihre vielseitige Unterstützung mein Studium und den Abschluss dieser Arbeit maßgeblich ermöglicht haben. Ihnen ist diese Arbeit gewidmet.

1. Einleitung

Man könnte sich die Frage stellen, ob es für Unternehmen, Gemeinden, Kommunen oder andere Einrichtungen richtig ist, das unternehmerische Handeln an zukünftigen, aber unsicheren und unberechenbaren Ereignissen auszurichten. Das „Hier und Jetzt“ in den Mittelpunkt der Betrachtung zu stellen hat einen gewissen Anreiz, aber birgt auch eine Menge von Gefahren. Vorausschauendes Handeln hat zum Ziel, Misserfolge aus- zuschließen. Wirtschaftlicher Erfolg hängt eng von der Fähigkeit ab, zukünftige Ent- wicklungen zu erkennen und das wirtschaftliche Handeln daran zu orientieren. Um zu- künftig Erfolg zu haben, müssen wir uns plastische und realitätsnahe Vorstellungen darüber verschaffen, wie Kundenwünsche, Umweltbedingungen, Lebensstile, Politik, Absatzmärkte, Technologie etc. sich entwickeln. Damit stehen wir vor einer sehr kom- plexen Aufgabe. Man könnte die Zeit auch einmal um 20 bis 30 Jahre zurückdrehen und schauen, wie die Welt zu diesem Zeitpunkt aussah. Hätte man damals voraussehen kön- nen, dass heute an jedem Arbeitsplatz Computer stehen oder jeder bzw. jeder zweite Haushalt heute einen Computer besitzt? Man wird feststellen, dass solche Voraussagen i.d.R. unmöglich sind. Aber deshalb darf man nicht gleich die Flinte ins Korn werfen. In der Geschichte existieren Beispiele, in denen eventuelle Ereignisse vorweggenommen wurden, zum Beispiel die Ölkrise. Die großen Mineralölkonzerne hatten diese Krise Jahre zuvor für möglich gehalten und konnten beim tatsächlichen Eintreten schnell rea- gieren.

Die Frage ist nun, wie man solche möglichen Zukunftsbilder erstellen kann. Die Ant- wort heißt Szenario-Technik. Sie bietet die Möglichkeit, systematisch mögliche Zu- kunftsbilder - Szenarien genannt - zu erstellen. In der vorliegenden Arbeit werden wir intensiv auf die Erstellung von Szenarien eingehen. Hauptziel soll nicht die Ausarbei- tung konkreter Zukunftsbilder sein, sondern wir werden Verfahren vorstellen, die im Rahmen der Szenario-Technik zum Einsatz kommen und das Ziel verfolgen, Annahme- bündel - sogenannte Rohszenarien - zu entwickeln. Dabei gehen wir folgendermaßen vor. Zunächst werden kurz einige einführende Worte zur unternehmerischen Zukunfts- problematik, strategischen Planung und die Einordnung der Szenario-Technik in diesen Prozess verloren. Im weiteren Verlauf werden wir die Szenario-Technik in ihren Grundzügen darstellen. Dabei werden wir auf den geschichtlichen Hintergrund, die We- sensmerkmale der Szenario-Technik, die Anforderungen an die erstellten Szenarien und die einzelnen Ablaufschritte der Szenario-Technik näher eingehen. Das Hauptaugen- merk dieser Arbeit liegt auf der Darstellung und kritischen Analyse einzelner Verfahren zur Erstellung von Szenarien. Im Hauptteil dieser Arbeit werden wir dahingehend die Vernetzungsanalyse, die Konsistenzanalyse und die Cross-Impact-Analyse intensiv un- tersuchen. Dabei werden im vierten Kapitel jeweils die einzelnen Verfahren genau vor- gestellt und im Anschluss kritisch analysiert. Das Ziel dieser Arbeit soll es sein, auf einzelne gravierende Problemfelder genauer einzugehen und Lösungsansätze zu präsen- tieren, die diese Problembereiche entkräften könnten. Dieser Aufgabe widmen wir uns im fünften Kapitel. Dazu werden am Anfang des fünften Kapitels die theoretischen Grundlagen verschiedener Unschärfetheorien vorgestellt. Im Einzelnen werden die Grundlagen der Fuzzy-Set Theorie, der Possibilitätstheorie und der LPI-Theorie darge- legt. Anschließend werden wir Lösungsansätze für einzelne Problemfelder der Vernet- zungs-, Konsistenz- und Cross-Impact-Analyse präsentieren, die auf die Grundlagen der vorgestellten Unschärfetheorien aufbauen. Im sechsten Kapitel werden wir eine zu- sammenfassende Betrachtung unserer Ergebnisse geben. Der Abschluss dieser Arbeit erfolgt durch eine Wertung der gewonnenen Erkenntnisse und Ergebnisse und liefert einen Ausblick für die zukünftige Entwicklung der Szenario-Technik.

2. Die strategische Planung und der Kampf der Unternehmen mit der Zukunft

Wollen sich Unternehmen erfolgreich am Markt etablieren und ihr Wachstum voran- treiben, müssen sie sich an den kontinuierlich verändernden Umweltbedingungen orien- tieren und ihre Unternehmensstrategien anpassen. Die Zeiten anhaltenden wirtschaftli- chen Wachstums1 sind vorbei. Trendbrüche und sprunghafte Verläufe im Wirtschafts- wachstum sind durch unvorhergesehene Ereignisse2 heute keine Seltenheit mehr. Aber auch der Einfluss neuer Technologien, stärkere Einflussnahme des Staates, z.B. durch Umweltschutzregelungen, aber auch die Arbeitsplatzproblematik, Veränderung in der Altersstruktur bei der Bevölkerung, veränderte Organisationsstrukturen in Unterneh- men, Klimaveränderungen, politische Krisen oder Eröffnung neuer Märkte3 stellen Probleme dar, denen sich die Unternehmen stellen müssen. Diese Einflussfaktoren sind nur ein geringer Teil eines Spektrums von Rahmenbedingungen, die nicht nur Bedro- hungen, Risiken und Unsicherheiten darstellen. Sie können auch Chancen für Unter- nehmen darstellen, die ergriffen werden sollten, um die weitere Konkurrenzfähigkeit zu gewährleisten. Systematisches und vorausschauendes Denken ist ein entscheidender Erfolgsfaktor für Unternehmen. Diese sind gezwungen ihre Planung auf zukünftige Entwicklungen auszurichten. Das bedeutet, Unternehmen planen für die Zukunft. Wer zukünftig mögliche Entwicklungen in die Planung einbezieht, ist in der Lage auf Trend- brüche und Störereignisse flexibel und durchdacht zu reagieren. Viele traditionelle Prognoseinstrumente, wie z.B. die Trendextrapolation, gehen von einer Fortschreibung der Vergangenheitsdaten in die Zukunft aus. Es werden kaum mögliche Entwicklungen oder Störereignisse in die Prognose einbezogen. Unter einer Prognose versteht man Aussagen über voraussichtliche Entwicklungen und Wirkungen.4 Sie liefern also eine Informationsgrundlage für das Treffen von zukunftsweisenden Entscheidungen. Dieser Gedanke bildet die Grundlage der strategischen Planung. Es werden langfristige Strate- gien entworfen mit dem Ziel, die Überlebensfähigkeit des Unternehmens zu sichern.5 Durch die Entwicklung von Strategien und deren Umsetzung werden versucht, Erfolgs- potentiale aufzubauen und zu erhalten. Die strategische Planung weist dahingehend die folgende Grundstruktur auf.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Grundstruktur der strategischen Planung6

Wie aus der Abbildung ersichtlich, ist die Umweltanalyse und -prognose ein wesentli- ches Element der strategischen Planung. Unternehmen stehen im ständigen Kontakt mit ihrer Umwelt. Aus diesem Grund hat die Unternehmensumwelt einen enormen Einfluss auf die Wirkungen der Strategien. Ihr sollte daher besondere Beachtung geschenkt wer- den. Viele der Einflussfaktoren unserer Umwelt weisen zahlreiche Beziehungen unter- einander auf, was eine Berücksichtigung dieser Faktoren in der strategischen Planung zu einem Problem macht. Ebenso die zukünftigen Entwicklungen und die Auswirkun- gen dieser Faktoren auf die Wirkungen der Unternehmensstrategien sind sehr unsicher und lassen kaum quantitative Aussagen zu.7 Dies führt zu einem erheblichen Problem, da die Auswirkungen strategischer Entscheidungen (Umsetzung der Strategien) einen langfristigen Charakter aufweisen. Treten dynamische Umweltveränderungen z.B. in Form von Trendbrüchen auf, können strategische Entscheidungen ein erhebliches Prob- lem für Unternehmen darstellen. Dies zeigt uns, dass die unsichere Zukunftsentwick- lung der Umwelt zwingend in die Planung mit einbezogen werden muss. Darin liegen auch die Schwachstellen herkömmlicher Prognosemethoden. Sie bauen schwerpunkt- mäßig auf der Grundlage von Vergangenheitsdaten auf und beziehen unsichere Zu- kunftsentwicklungen nicht mit in ihr Modell ein. Daher sind wir auf der Suche nach einem Verfahren, das diese Schwachstellen überwindet. Dieses Verfahren sollte die Entwicklung der wichtigsten Umfelder berücksichtigen, qualitative und quantitative Aspekte sowie Störereignisse verarbeiten und in Alternativen denken können, damit eine möglichst breite Zukunftssituation erfasst werden kann.8 Ein Planungsinstrumenta- rium, das die vielfältigen Einflussfaktoren und Vernetzungen unserer Umwelt inklusive ihrer Störereignisse einbezieht, ist die Szenario-Technik. In der strategischen Planung kann die Szenario-Technik zur Entwicklung von Zielen und Strategien eingesetzt wer- den. Man versucht anhand von Szenarien zukunftsorientierte Ziele zu erkennen, zu de- finieren und darüber hinaus geeignete Strategien zu entwickeln, um diese Ziele zu errei- chen.9

3. Allgemeine Darstellung der Szenario-Technik

Bevor auf einzelne Verfahren der Szenario-Technik eingegangen wird, soll in diesem Kapitel die Szenario-Technik in ihren allgemeinen Zügen dargestellt werden. Im Folgenden werden der Begriff „Szenario“ und die Wesensmerkmale der Szenario-Technik vorgestellt. Im Anschluss daran werden die Anforderungen und die einzelnen Ablaufschritte der Szenario-Technik erläutert.

3.1 Historische Entwicklung der Szenario-Technik

Der Begriff „Szenario“ stammt ursprünglich aus der Theaterwissenschaft, in der er für eine Abfolge von Bühnenbildern verwendet wurde.10 In der Szenario-Technik ist der Gedanke einer Abfolge von Bühnenbildern äquivalent. Es werden Zukunftsbilder ge- schaffen, die unterschiedliche Bühnenbilder für unterschiedliche Zukunftssituationen darstellen. Der eigentliche Szenario-Ansatz entstand nach dem zweiten Weltkrieg, wo er für militärisch-strategische Studien des amerikanischen Verteidigungsministeriums verwendet wurde. Als geistiger Ziehvater wird häufig der Zukunftsforscher Hermann Kahn gesehen.11 Er prägte damals den Begriff „Szenario“ für militärische Simulationen und übertrug diesen Ansatz auf unternehmensstrategische Fragen, als er Anfang der 50er Jahre zur RAND Corporation12 in Santa Monica wechselte. Anfang der 60er Jahre wechselte Kahn zum Hudson-Institute. Dieses entwickelte anfänglich ebenfalls Studien zur nationalen Sicherheit in den USA, etablierte sich aber Mitte der 60er Jahre zu einem bedeutenden Prognoseinstitut. Zusammen mit Anthony J. Wiener entwickelte er das „szenario writing“, das als erster Ansatz zur Erstellung von Szenarien angesehen wer- den kann. Vielen Autoren zufolge ist die Publikation „The Year 2000. A Framework for Speculation on the next Thirtythree Years“ von Kahn und Wiener 1967 das erste Szena- rio, welches wissenschaftliche Anforderungen erfüllt.13 „Ihre Szenarien waren hypothe- tische Abfolgen von Ereignissen, durch die zukünftige Entwicklungsmöglichkeiten sichtbar wurden.“14 Bis Anfang der 70er Jahre waren Prognosen aufgrund ungebroche- nen Wachstums und geringen Unternehmensumweltveränderungen ein geeignetes In- strument für die Planung.15 Kahn war es wiederum, der 1971 am Hudson-Institute im Rahmen der Unternehmensplanung einiger Großunternehmen mit Hilfe der Szenario- Technik mögliche Umweltsituationen entwickelte.16 Das Interesse an der Szenario- Technik wurde in den 70er Jahren immer größer, nachdem die mit Hilfe der Szenario- Technik vorausgesagten Ölpreisschwankungen 1971 auch tatsächlich in der Ölkrise 1973 eintraten. Automobilindustrie, Chemie und Mineralölkonzerne, Branchen, die durch die Ölkrise am meisten betroffen waren, gehörten zu den ersten Nutzern. Verbrei- tet wurde die Szenario-Technik in den folgenden Jahren durch die Arbeit einiger Unter- nehmen. Besondere Arbeit leistete die Royal Dutch/Shell Gruppe. Sie galt als eines der ersten Unternehmen, das die Szenario-Technik erfolgreich in Europa einsetzte. Auf- grund der Probleme von quantitativ orientierten Planungsmethoden versuchte sie quali- tative Aspekte und Alternativen in die Planung einzubeziehen.17 Neben der Royal Dutch/Shell Gruppe galten auch Unternehmen, wie General Electric Company und Lockheed Aircraft Corporation zu denen, die mit der Darstellung unternehmensspezifi- scher Szenarien sowie deren Erstellung und Anwendung einen ernormen Einfluss auf die Ansätze der Szenario-Technik nahmen.18 Der damalige Vorstandsvorsitzende der deutschen Shell AG, Ilsemann, bezeichnete die Szenario-Technik als ein hervorragen- des Instrument zur strategischen Planung. Diese positive Einschätzung seitens der Shell AG wird auch durch zahlreiche Publikationen theoretischer Art und praktischer An- wendungsbeispiele unterstützt. Einige der entwickelten und publizierten Szenarien der Shell AG sind „Aufbruch zu neuen Dimensionen“19 oder „Höhere Effizienz bremst Verbrauch“20. Das Battelle-Institut in Frankfurt und das Zukunftsforschungsinstitut in Berlin gehören zu den Einrichtungen, die die Szenario-Technik in Deutschland entwi- ckelten. Aus heutiger Sicht kommt dem Ansatz von Battelle im deutschsprachigen Raum die höchste Bedeutung zu.21 Insbesondere die Arbeiten von Geschka und Reib- nitz22 gehören zu jenen Arbeiten, die im Zusammenhang mit dem Battelle-Institut her- vorgehoben werden müssen. Zusammenfassend kann erwähnt werden, dass die Szena- rio-Technik heute in relativ vielen Großunternehmen eingesetzt wird. Zudem wird sie von der Vielzahl der Nutzer als ein relativ nützliches Instrument angesehen. Eine 1989 durchgeführte Befragung von 460 deutschen Großunternehmen ergab eine Nutzerquote von 26,4% bei einer Rücklaufquote von 73%.23 Diese Zahl sieht auf den ersten Blick recht gering aus, aber wir dürfen nicht außer Acht lassen, dass der Szenario- Erstellungsprozess sehr aufwendig und auch kostspielig ist. Wir werden in unseren spä- teren Ausführungen zeigen, dass ein erheblicher Aufwand betrieben werden muss, um Eingangsdaten zu beschaffen und diese adäquat auszuwerten. Traditionelle Prognose- verfahren benötigen nicht annähernd den Umfang der Eingangsdaten, wie der Prozess der Szenario-Erstellung. Daher ist der Verbreitungsgrad dieser Verfahren auch weit aus höher, als der einer Szenario-Technik. Vor diesem Hintergrund empfinden wir die Nut- zerquote der Szenario-Technik als ein gutes Zeichen für deren wirtschaftliche Anerken- nung und deren wirtschaftlichen Nutzen.

Die Szenario-Technik24 ist nach Heinecke und Schwager ein Verbund aus unterschiedlichen Prognosemethoden. Mit dem Einsatz verschiedener Planungsinstrumente wird die Unsicherheit der Zukunft als gegeben akzeptiert. Bei ihrer Anwendung werden mögliche Umfeldsituationen der Zukunft entwickelt und der mögliche Weg aus der Gegenwartsperspektive zu diesen zukünftigen Situationen abgeleitet.25 Sie kann somit zusammenfassend definiert werden, als „ein Planungsinstrumentarium ..., mit der Szenarien gestaltet und im weiteren Prozess verarbeitet werden, um daraus Zukunftssituationen zu analysieren und Strategien abzuleiten“.26

Da eine genaue Vorhersage von Entwicklungen schwierig oder sogar unmöglich ist, lassen sich in der Szenario-Technik qualitative Aussagen einbauen. Dadurch werden mögliche zukünftige Entwicklungen in die Planung einbezogen und bedeutende Ein- flussfaktoren des Untersuchungsgegenstandes nicht ausgegrenzt. Aufgrund der Vielzahl einbezogener und zu verarbeitender Informationen sind die Ergebnisse der Szenario- Technik eine gute Basis für die Unternehmensplanung. Entscheidend bei diesem Ansatz ist das Auffinden von Einflussfaktoren sowie deren mögliche Entwicklungen. Aus die- sen Einflussfaktoren lassen sich nach methodischer Verarbeitung alternative Zukunfts- bilder generieren. Diese stellen ihrerseits eine Basis für die strategischen Entscheidun- gen im Rahmen der strategischen Unternehmensplanung dar. Diese Informationen er- öffnen uns eine Verbindung, die von der Gegenwart zu den Bühnenbildern der Zukunft führt.27 Ergebnis der Anwendung sind mindestens zwei mögliche Zukunftsbilder, die den Anforderungen Unterschiedlichkeit, Plausibilität und Konsistenz28 entsprechen. Es wird also nicht mehr eine einzige mögliche Zukunft erarbeitet, sondern es werden meh- rere verschiedene Zukunftssituationen entworfen. Bei der Erstellung dieser Zukunftsbil- der können zwei konträre Zukunftsbilder entworfen werden, die ihrerseits eher unwahr- scheinlich sind, aber z.B. Entwicklungen von Regionen aufzeigen, um der Öffentlich- keit prinzipiell denkbare Konsequenzen präsentieren zu können.29 Als gutes Beispiel könnte man die negativen Konsequenzen für den Wirtschaftsstandort Leipzig nennen, wenn der Flughafen Halle/Leipzig nicht weiter ausgebaut bzw. geschlossen werden würde. Eine andere Möglichkeit ist die Angabe differenzierter Wahrscheinlichkeiten. In diesem Fall werden Zukunftsbilder mit unterschiedlichen Gesamtwahrscheinlichkeiten erstellt. Ob man den Weg der differenzierten Wahrscheinlichkeiten oder die Erstellung konträrer Zukunftsbilder geht, hängt maßgeblich von der jeweiligen Entscheidungssi- tuation ab.

Folglich ist es unsere Aufgabe, uns mit der Entwicklung von der Gegenwart zu diesen Zukunftsbildern auseinander zusetzen. Wir dürfen nicht nur das Augenmerk auf die Ermittlung des Endresultats30 werfen, sondern sind gezwungen auch den Weg zu die- sem zu erforschen. Eine entscheidende Rolle spielen die Einflussfaktoren, die bezüglich ihrer Gegenwarts- und Zukunftsrelevanz differenziert werden müssen. Wir können zwi- schen den Einflussfaktoren der Gegenwart und den Einflussfaktoren, die für das Zu- kunftsbild relevant sind, unterscheiden. Nehmen wir einen Abgleich dieser Einflussfak- toren vor, erhalten wir einen Überblick, inwieweit relevante Einflussfaktoren der Ge- genwart auch eine Rolle in der Zukunft spielen. Zusätzlich können wir erfahren, inwieweit heute relevante Einflussfaktoren in der Zukunft vernachlässigt werden kön- nen.31 Wir wissen nun, dass mit Hilfe der Szenario-Technik Szenarien systematisch und nachvollziehbar erstellt werden können, die den möglichen Entwicklungsverlauf in die Zukunft veranschaulichen. In der Literatur existieren unterschiedliche Begriffsdefinitio- nen des Szenarios, wie z.B. Punkt- oder Pfadszenarien, Global-, Branchen- und unter- nehmensspezifische Szenarien sowie explorative oder normative Szenarien. Das erste Abgrenzungskriterium, wonach sich die verschiedenen Szenario-Typen differenzieren lassen, ist die Zeit. Ein Szenario kann sich allein auf die Darstellung eines einzigen Zeitpunktes beziehen. In diesem Fall sprechen wir von Punkt- bzw. Zustandsszenarien. In der Szenario-Technik soll aber ein Spektrum von möglichen Entwicklungen aufge- zeigt werden. Daher sind solche Punktszenarien wenig geeignet. In der Szenario- Technik werden deshalb hauptsächlich Pfadszenarien verwendet. Bei ihnen sprechen wir von einer Beschreibung von Entwicklungen über einen Zeitraum zu einem festen Zeitpunkt. Ein weiteres Abgrenzungskriterium beschreibt die Ableitungsrichtung bzw. den Ausgangspunkt der Erstellung von Szenarien. Hierbei wird zwischen den explorati- ven und den antizipativen Szenarien unterschieden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Antizipative und Explorative Szenarien32

Bei explorativen Szenarien wird der Weg von der Gegenwart zu einem zukünftigen Zeitpunkt betrachtet. Aufbauend auf einem Set von Basishypothesen setzen sie in der Gegenwart an und versuchen mögliche Zukunftsbilder zu erschließen. Bei antizipativen Szenarien werden ausgehend von Annahmen über Zustände am Ende des Planungszeit- raumes auf potentielle Ereignisse zu dessen Beginn geschlossen.33 Das letzte Abgren- zungskriterium ist die Zielgerichtetheit der Szenarien. Bei diesem Kriterium unterschei- det man zwischen den deskriptiven und den präskriptiven (auch normative Szenarien genannt) Szenarien. Deskriptive Szenarien werden auf der Grundlage von Kausalitäts- beziehungen erstellt und enthalten keine Urteile bezüglich der Vorteilhaftigkeit der Zu- kunftsperspektive. Präskriptive Szenarien werden auf der Grundlage von Finalbezie- hungen erstellt. Diese beinhalten die Ziele, Wünsche und Werthaltungen des Erstellers und werden deshalb auch als Zielbilder bezeichnet.34 Für die Unternehmensplanung sind maßgeblich explorative Pfadszenarien relevant. Sie basieren auf der Analyse der gegenwärtigen Situation und geben „eine in die Zukunft gerichtete Darstellung von Entwicklungsverläufen und Entscheidungsmomenten.“35 Daraus lässt sich ableiten, dass Szenarien keine statischen Beschreibungen zukünftiger Zustände sind, sondern vielmehr dynamische Ableitungen verschieden möglicher Zukunftsbilder und deren Entwicklung dorthin darstellen. Szenarien stellen keine Prognose dar, sondern sie beschreiben nur was passieren könnte. Ausgehend von der gegenwärtig vorherrschenden Situation wird der Versuch unternommen, Aussagen über die Zukunft zu treffen und den Weg zur Zu- kunft darzustellen. In der Literatur wird häufig zur Erklärung der Szenario-Technik der sogenannte Szenario-Trichter verwendet.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Szenario-Trichter36

Ein Szenario versucht von der gegenwärtigen Situation aus, Aussagen über die Zukunft zu liefern. Es beschreibt dabei nicht nur das mögliche zukünftige Bild, sondern weist uns auch den Weg dahin. Der Einfluss der Gegenwart nimmt immer weiter ab, je mehr wir uns in Richtung Zukunft bewegen. Haben heute auftretende Strukturen noch einen relativ großen Einfluss, können diese in naher Zukunft an Einfluss verloren haben oder sind für die zukünftigen Bedingungen völlig unrelevant. Das heißt, in ferner Zukunft nimmt der Einfluss immer mehr ab und das Möglichkeitsspektrum alternativer Zu- kunftszustände öffnet sich wie ein Trichter. In der Abbildung repräsentiert die Trichter- spitze die Gegenwart. In der Gegenwart sind wir in der Lage eine Bestandsaufnahme37 vorzunehmen. Je mehr wir uns der Trichteröffnung nähern, desto mehr Probleme treten auf, wenn wir Prognosen liefern wollen. Das Problem besteht darin, dass eventuelle Trendbrüche oder Störereignisse in der fernen Zukunft aus den heute vorherrschenden Bedingungen nur mit großer Unsicherheit einbezogen werden können. Die beiden äuße- ren Linien des Trichters repräsentieren Extremszenarien. Diese spannen sozusagen ei- nen Raum auf, in dem alle möglichen Szenarien enthalten sind. Bei der grafischen Ver- anschaulichung über den Szenario-Trichter liegen demzufolge alle möglichen Szenarien auf der Schnittfläche des Szenario-Trichters.38 Die Fläche wird durch die Anzahl der einbezogenen unsicheren Faktoren bestimmt und wie bereits erwähnt in den Randpunk- ten durch Extremszenarien eingegrenzt. Aus Sicht der Praxis erscheint es ausreichend drei Szenarien zu betrachten. Deshalb sollten mit Hilfe der Szenario-Technik zwei bis drei möglichst unterschiedliche, konsistente und widerspruchsfreie Szenarien erarbeitet werden, die einen Raum aufspannen, in dem alle zukünftigen Entwicklungen liegen.39

3.3 Anforderungen an Szenarien

Szenarien sollen einen Bezugsrahmen für mögliche zukünftige Situationen liefern, für die in der strategischen Planung unterschiedliche Strategien durchgespielt werden kön- nen.40 Um das zu erreichen, müssen sie externe Umweltfaktoren erfassen und die Zu- kunft in einem angemessenen Zeitraum abbilden. Es sollen alternative Wege in der stra- tegischen Planung aufgedeckt werden. Wenn Szenarien dies ermöglichen, sind sie ein guter Anhaltspunkt für Unternehmen, die Veränderungen frühzeitig aufdecken können.

Damit Szenarien diesen Anforderungen gerecht werden, müssen sie bestimmte Kriterien erfüllen. Diese sind die inhaltliche Plausibilität, logische Konsistenz und die inhaltliche Transparenz.41 Mit inhaltlicher Plausibilität ist die Einbeziehung spekulativer Elemente gemeint. Der Umfang muss sich so in Grenzen halten, dass das erstellte Szenario nicht an Glaubwürdigkeit verliert. Die logische Konsistenz zielt darauf ab, dass ein beschrie- benes Zukunftsbild auf logisch zusammenpassenden Annahmen aufbaut und einen kau- salen Aufbau besitzt. Damit soll ausgeschlossen werden, dass Ergebnisse auftauchen, die sich gegenseitig ausschließen oder nur in den seltensten Fällen gleichzeitig auftre- ten. Ebenso wichtig wie die bereits genannten Kriterien ist die inhaltliche Transparenz. Darunter ist die Offenlegung sämtlich getroffener Annahmen über zukünftige Ereignis- se oder Entwicklungen zu verstehen, wodurch deren Nachvollziehbarkeit sichergestellt wird. Diese Kriterien lassen sich auch in einem ausführlichen Kriterienkatalog formulie- ren. In Anlehnung an Schwager und Heinecke kann dieser auch als Checkliste für die Erstellung von Szenarien verwendet werden.

Abbildung in dieser Leseprobe nicht enthalten 42

3.4 Vorgehensweise der Szenario-Technik

In der Literatur sind eine Vielzahl von Vorgehensweisen zur Erstellung von Szenarien aufgeführt. Alle Vorgehensweisen gleichen sich jedoch in ihren Ansätzen und unter- scheiden sich hauptsächlich in den Bezeichnungen und Reihenfolgen. Bei einem Ver- gleich der verschiedenen Vorgehensweisen lassen sich prinzipielle Gemeinsamkeiten erkennen. Typischerweise wird die Szenario-Technik in drei Grundphasen durchge- führt. Diese sollen hier kurz genannt und im weiteren Verlauf näher erläutert werden. Ausgangspunkt ist die Analysephase. In dieser Phase werden das Untersuchungsfeld definiert, die gegenwärtige Situation analysiert sowie externe und interne Einflussfakto- ren identifiziert. Diese erste Phase dient zum besseren Verständnis der Wirkungszu- sammenhänge und schafft ein einheitliches Problemverständnis.43 In der zweiten Phase werden die Entwicklungstendenzen für die ermittelten Einflussfaktoren bestimmt. In dieser als Prognosephase bezeichneten Stufe werden durch die Projektion in die Zukunft kritische und unkritische Deskriptoren herauskristallisiert. Die unkritischen Deskripto- ren weisen eindeutige zukünftige Ausprägungen auf, wo hingegen für die kritischen Deskriptoren relevante Entwicklungsverläufe ermittelt und ihre gegenseitigen Abhän- gigkeiten bestimmt werden müssen. Aus diesen lassen sich alternative konsistente An- nahmebündel ableiten und bereits jetzt Störereignisse einarbeiten. Anschließend in der Synthesephase werden aus den Entwicklungstendenzen der verschiedenen Deskriptoren Szenarien erstellt und ausformuliert. Die Einbeziehung von Störereignissen ermöglicht die Offenlegung von Auswirkungen von Umwelteinflüssen auf die erstellten Szenarien. Einige Ansätze, wie die vom Battelle-Institut oder Reibnitz, zählen sogar eine vierte Phase, die sogenannte Implementierungsphase, zu den Grundphasen dazu.44 In dieser Phase ist die Umsetzung der Szenarien in Strategien der zentrale Gegenstand.

3.5 Die Ablaufschritte der Szenario-Technik

Aus diesen grundsätzlichen Phasen leiten sich alle bekannten Szenario-Ansätze ab. Die einzelnen Ablaufschritte sollen kurz anhand des vom Battelle-Institut entwickelten Ansatzes erläutert werden. Die folgende Abbildung stellt die Schrittfolge der SzenarioTechnik nach dem Ansatz vom Battelle-Institut dar.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Ablaufschritte der Szenario-Technik

Schritt 1: Definition und Strukturierung des Untersuchungsfeldes (Aufgaben- bzw. Problemanalyse)

Das Untersuchungsfeld stellt die Basis der Szenarien dar. Es können gesamte Unter- nehmen, einzelne Teile von Unternehmen, bestimmte Branchen oder externe Umwelt- bereiche das Untersuchungsfeld definieren. Der erste Schritt umfasst eine genaue Be- schreibung der Aufgabenstellung, durch die der Untersuchungsgegenstand genau abge- steckt wird. In der Problemanalyse wird die aktuelle Situation des Untersuchungsfeldes erfasst.45 Dazu gehören die Beschreibung von Strategien, Zielen, Unternehmensleitbil- dern sowie eine Ist-Analyse. Zusätzlich werden Einschätzungen des Stärken- und Schwächenprofils vorgenommen, um eventuelle Problemfelder und bestimmte Kenn- größen zu identifizieren. Darüber hinaus werden in diesem Schritt auch die Zeithorizon- te der Szenarien festgelegt.

Schritt 2: Identifizierung und Strukturierung der wichtigsten Einflussbereiche (Einflussanalyse)

Gegenstand der Einflussanalyse ist die Identifikation und Untersuchung von Einflussbe- reichen, die auf den Untersuchungsgegenstand bzw. das Untersuchungsfeld einwirken.46 Da die verschiedenen Einflussbereiche einen unterschiedlichen Einfluss auf den Unter- suchungsgegenstand haben können, müssen sie hinsichtlich ihrer Stärke des Einflusses bewertet und eingestuft werden. Ebenso wichtig ist die Analyse der Wechselwirkungen zwischen den einzelnen Bereichen, da Veränderungen einzelner Bereiche Auswirkun- gen auf andere Bereiche haben können. In der Literatur werden verschiedene Wege auf- geführt, um die Interdependenzen zwischen den Bereichen zu visualisieren. Reibnitz schlägt die Verwendung von Vernetzungsmatrizen vor47, auf die wir im weiteren Ver- lauf der Arbeit noch zu sprechen kommen. Ziel dieses Schrittes ist es, ein Verständnis der Abhängigkeiten und Vernetzungen des Untersuchungsgegenstandes in seiner Um- welt zu erlangen.

Schritt 3: Ermittlung von Entwicklungstendenzen und kritischer Deskriptoren für die Umfelder (Trendprojektion)

In diesem Schritt werden beschreibende Kenngrößen, sogenannte Deskriptoren, ermit- telt, die bestimmte Teilbereiche des Umfeldes charakterisieren und beschreiben. Diese Deskriptoren sind wertneutral und sollen alle wichtigen Teilbereiche definieren.48 Die Deskriptoren sollten alle als wichtig identifizierten Einflussfaktoren49 abdecken und dürfen sich inhaltlich nicht überschneiden. Der Ist-Zustand der Deskriptoren ist sowohl auf Basis quantitativer als auch auf Basis qualitativer Daten zu ermitteln. Von diesem Ist-Zustand ausgehend projiziert man die Deskriptoren in die Zukunft. Das Ende der Projektion ist ein vorher definierter Endzeitpunkt in der Zukunft. In diesem Betrach- tungszeitraum können sich eindeutige und mehrdeutige Entwicklungen bei der Projekti- on ergeben. Deskriptoren mit alternativen Entwicklungstendenzen werden als kritische Deskriptoren bezeichnet. Hingegen werden jene mit eindeutiger und klarer Entwicklung als unkritisch bezeichnet. In der folgenden Grafik sind mögliche Deskriptorenverläufe dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Mögliche Deskriptorenverläufe50

Ziel dieses Schrittes ist es, ein breites Spektrum von alternativen Konstellationen bestehend aus kritischen und unkritischen Deskriptoren zu erarbeiten.

Schritt 4: Bildung und Auswahl alternativer konsistenter Annahmebündel (Erstellung von Rohszenarien)

Im vierten Schritt lautet die Aufgabe, die zuvor ermittelten kritischen Deskriptoren hin- sichtlich ihrer Einflussnahme auf andere Deskriptoren zu untersuchen. Im Rahmen die- ser Konsistenzprüfung51 wird analysiert, in welcher Weise sie sich gegenseitig verstär- ken, schwächen oder neutralisieren. Wie diese Konsistenzanalyse im Einzelnen abläuft, wird im weiteren Verlauf der Arbeit genauer erläutert. In einem weiteren Schritt werden die kritischen Deskriptorausprägungen zu Annahmebündeln zusammengefasst. Diese stellen die sogenannten Rohszenarien dar. Bevor dies geschieht, sollte die Anzahl und Auswahl der Szenarien festgelegt werden. Für die strategische Planung sollte man sich auf höchstens vier Szenarien beschränken, um inhaltliche Überschneidungen und eine überkomplizierte Handhabbarkeit zu vermeiden.52 Aus Sicht der Praxis sind zwei bis drei Szenarien optimal. Dies bestätigt sich auch in einer Studie von Meyer-Schönherr, bei der die meisten Unternehmen zwei bis drei Szenarien entwickelten.53 Neben der Konsistenzanalyse existieren in der Literatur weitere Verfahren, um die Vielzahl der kritischen Deskriptorausprägungen zu reduzieren, ihre Wechselwirkungen aufzuzeigen und sie zu alternativen, konsistenten Annahmebündeln zusammenzufassen. Eines dieser Verfahren ist beispielsweise die Cross-Impact-Analyse, auf die auch im weiteren Verlauf näher eingegangen wird.

Schritt 5: Ausgestaltung und Interpretation der ausgewählten Umfeldszenarien (Szenariointerpretation)

Die im vierten Schritt ausgewählten Rohszenarien werden nun zusammen mit den un- kritischen Deskriptoren zu aussagekräftigen Zukunftsbildern zusammengefasst. Dabei ist zu beachten, dass die einbezogenen unkritischen Deskriptoren nicht im Widerspruch zu den gewählten Annahmebündeln stehen. Ziel ist es, eine relativ vollständige Be- schreibung der Zukunft zu erreichen. Die Deskriptoren und ihre Entwicklungspfade stellen das Grundgerüst für die Szenariobeschreibung dar. Aus ihm wird eine verbale Formulierung der alternativen Szenarien erstellt. Jedes Szenario soll eine plastische Zu- kunftsgeschichte darstellen.54 Geschka und Hammer empfehlen eine schriftliche Szena- rio-Interpretation mit einem Umfang von fünf bis acht Seiten.55 Durch diese verbale Formulierung sollen die Szenarien ihren abstrakten und theoretischen Charakter verlie- ren.

Schritt 6: Einführung und Auswirkungsanalyse signifikanter Störereignisse (Störfallanalyse)

Dieser Schritt analysiert, inwieweit die erstellten Zukunftsbilder (Endszenarien) auf vorstellbare Störereignisse56 reagieren. Zuerst besteht die Aufgabe mögliche Störereig- nisse zu identifizieren. Dazu existieren in der Literatur zahlreiche Kreativitätstechni- ken.57 Auf die verschiedenen Kreativitätstechniken werden wir in dieser Arbeit nicht näher eingehen und verweisen auf die entsprechende Literatur. Anschließend müssen die Störereignisse hinsichtlich ihrer Auswirkungen auf die Endszenarien bewertet wer- den. Wichtige Kriterien bei der Bewertung sind die Eintrittswahrscheinlichkeit der Stör- ereignisse und die Intensität, mit der sie die Szenarien beeinflussen. Im Anschluss an deren Bewertung werden relevante Störereignisse in die Szenarien integriert.

Schritt 7: Ableitung von Konsequenzen für den Untersuchungsgegenstand (Konsequenzanalyse)

In der Literatur existieren auch Ansätze, in denen die Konsequenz-Analyse vor dem Schritt der Störfallanalyse durchgeführt wird. Begründet wird dies mit der Argumenta- tion, dass der Szenarioerstellungsprozess mit der Konsequenz-Analyse abgeschlossen wird. Es werden demzufolge störungsfreie Szenarien erstellt. Jedem Ersteller bleibt es selbst überlassen, ob er Störereignisse integriert oder nicht. Inhaltliche Aufgabe dieses Schrittes ist die Ableitung von Gestaltungsstrategien, um bestimmten Entwicklungen entgegenzuwirken oder solche wettbewerbsfördernd zu nutzen. Zu diesem Zweck wer- den Chancen und Risiken für die erstellten Zukunftsentwicklungen entworfen, bewertet und im Anschluss geeignete Aktivitäten auf diese Chancen und Risiken angesetzt. Das Ziel besteht darin, so früh wie möglich Chancen zu nutzen und Risiken zu vermeiden. Das Battelle-Institut hat für diesen Zweck ein Rechenprogramm entwickelt, welches aus den erstellten Szenarien die jeweiligen Chancen und Risiken ermittelt.58

Schritt 8: Umsetzung der Ergebnisse in die strategische Planung (Implementierungsphase)

Dieser Schritt ist im Prinzip kein Gegenstand der Szenario-Technik. Angeführt wird er dennoch, weil er die Szenario-Technik als Instrumentarium in die strategische Planung integriert. Ausgangspunkt sind die Ergebnisse der einzelnen Phasen. Die Ergebnisse werden ausgewertet, um darauf aufbauend bereits bestehende Strategien zu überprüfen bzw. die Ziele und Strategien an die neuen Erfordernisse anzupassen oder neue Strate- gien zu entwickeln. Die Einbindung der obersten Führungsebene ist bei diesem Vorge- hen zwingend notwendig.

4. Verfahren zur Erstellung von Szenarien

Nachdem wir die einzelnen Schritte der Szenario-Technik betrachtet haben, soll in den folgenden Abschnitten auf einzelne Verfahren näher eingegangen werden, die für die Erstellung von Szenarien konzipiert wurden. Im Einzelnen werden wir die Vernet- zungsanalyse, die Konsistenzanalyse und die Cross-Impact-Analyse näher beleuchten. Jedes dieser Verfahren findet in unterschiedlichen Schritten der Szenario-Technik seine Hauptanwendungsgebiete.

- Die Analyse von Interdependenzen zwischen den Umfelddeskriptoren wird durch den Einsatz einer Vernetzungsmatrix durchgeführt, aber auch in der Sze- nario-Interpretation und der Konsequenzanalyse findet die Vernetzungsmatrix ihre Anwendung.
- Die Konsistenzanalyse hingegen findet ihr Hauptanwendungsgebiet im vierten Schritt der Annahmenbündelung.
- Die Cross-Impact-Analyse wird sowohl im vierten Schritt der Annahmenbünde- lung als auch im sechsten Schritt der Störereignisanalyse eingesetzt.

Im Rahmen dieser Arbeit wollen wir mit der Darstellung der einzelnen Verfahren beginnen und jedes der vorgestellten Verfahren kritisch untersuchen. Im weiteren Verlauf der Arbeit wird es unser Ziel sein, unserer Meinung nach besonders gravierende Problemfelder genauer zu untersuchen und durch neue Denkanstöße bzw. Lösungsansätze versuchen, diese Problembereiche zu beseitigen bzw. abzuschwächen.

4.1 Die Vernetzungsanalyse - Analyse von Wechselbeziehungen

Wie bereits in den Ablaufschritten der Szenario-Technik beschrieben,59 werden im zweiten Schritt die Einflussbereiche auf den Untersuchungsgegenstand identifiziert und untersucht. Dieser Schritt umfasst auch die Analyse der Wechselbeziehungen zwischen den einzelnen Einflussbereichen. An diesem Punkt setzt die Vernetzungsanalyse an. Ihr Ziel ist es, die Verflechtungen der Umfelder aufzuzeigen und dadurch Einblicke in die Systemzusammenhänge zu gewähren.

4.1.1 Darstellung und Vorgehensweise der Vernetzungsanalyse

Ausgangspunkt der Vernetzungsanalyse ist eine Vernetzungsmatrix. In einer Zei- len/Spalten-Matrix werden die verschiedenen Einflussbereiche hinsichtlich ihrer Stärke des Einflusses eingetragen. Die Stärke des Einflusses wird durch eine Zahl einer Bewer- tungsskala bestimmt. Die Skalierung der Bewertungsskala kann individuell festgelegt werden. Schwager und Heinecke verwenden eine Skalierung von Null (=keinen Ein- fluss) bis Zwei (=starker Einfluss). Götze hingegen verwendet eine Skalierung von Null (=keinen Einfluss) bis Drei (=starker Einfluss). Auf die Art und Wahl der Skalierung werden wir in späteren Abschnitten zur Kritik und zu den Lösungsansätzen der Vernet- zungsanalyse noch intensiver eingehen.

Wir wollen die Vernetzungsmatrix nun anhand eines selbst gewählten Beispiels vorstel- len und erläutern. Zur Veranschaulichung stellen wir uns ein kleines Telekommunikati- onsunternehmen in Sachsen-Anhalt vor. Um eine Vernetzungsmatrix aufstellen zu kön- nen, benötigen wir zuerst die wichtigsten Einflussbereiche des Telekommunikationsun- ternehmens. Nehmen wir der Einfachheit halber folgende Einflussbereiche an: Wirtschaft, Politik & Gesetzgebung, Wettbewerb, Absatzmarkt (Abnehmer oder Kun- den) und Beschaffungsmarkt, Technologieentwicklung und Gesellschaft. Für jeden Ein- flussbereich müssen zudem die relevanten Einflussfaktoren bestimmt und hinsichtlich der Bedeutung für das Unternehmen bewertet werden. Diese Bewertung erfolgt meist durch eine relative Rangfolge. Sind diese beiden Schritte vollzogen, kann die Vernet- zung vorgenommen werden. Eine Vernetzung bedeutet in diesem Kontext: „Wie stark beeinflusst jeder Bereich, charakterisiert durch seine wichtigsten Einflussfaktoren, je- weils alle anderen Bereiche?“60 Eine solche Vernetzungsmatrix kann beispielsweise folgende Gestalt annehmen. Für die Bewertung der Einflussstärke der einzelnen Ein- flussbereiche legen wir eine Bewertungsskala von Null (keinen Einfluss) bis Zwei (star- ken Einfluss) zugrunde. Bei der Ermittlung der Einflussstärken geht man folgenderma- ßen vor. Man bestimmt mittels der zugrundegelegten Bewertungsskala zeilenweise von links nach rechts den Einfluss jedes Systemelementes auf jedes andere Systemelement.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2: Vernetzungsmatrix

Aus der Vernetzungsmatrix lassen sich zwei wesentliche Dinge ablesen. Erstens kann die Aktivsumme61 der Matrix entnommen werden. Diese besagt, welchen Einfluss ein Einflussbereich auf alle anderen Einflussbereiche hat. In unserem Beispiel sieht man, dass der Absatzmarkt (Abnehmer oder Kunden) den größten Einfluss auf alle anderen Bereiche ausübt, gefolgt vom Wettbewerb und der Politik & Gesetzgebung. Zum Zwei- ten können wir aus der Vernetzungsmatrix die Passivsumme62 ablesen. Diese gibt an, wie stark jeder Einflussbereich von allen anderen Einflussbereichen beeinflusst wird. Auf unser Beispiel bezogen erkennen wir, dass der Beschaffungsmarkt und die Techno- logie am meisten von den übrigen Bereichen beeinflusst werden. Zudem können auch zwei Indices aus Vernetzungsmatrix errechnet werden. Den Impuls-Index (IPI) erhält man, indem man die Aktivsumme durch die Passivsumme dividiert. Er gibt an, welcher Einfluss von einem Systemelement ausgeht, ohne dass es selbst eine Veränderung er- fährt. Impulsive Elemente haben demzufolge einen großen Quotienten aus Aktiv- und Passivsumme. Im Gegensatz dazu werden Elemente mit einem geringen Quotienten als reaktiv bezeichnet. Der zweite sogenannte Dynamik-Index (DI) errechnet sich aus der Multiplikation von Aktiv- und Passivsumme. Er ist ein Maß dafür, welchen Einfluss ein Systemelement auf das Gesamtsystem ausübt bzw. wie es im Gesamtsystem eingebun- den ist.63 Systemelemente mit einem großen Dynamik-Index werden als dynamisch (auch: ambivalent), Elemente mit geringen Dynamik-Index hingegen als puffernd be- zeichnet.

Anhand dieser Beziehungen ergibt sich nun eine Gewichtung der einzelnen Systemele- mente, die in einem System-Grid dargestellt werden kann. Aus diesem System-Grid lässt sich eine Rangfolge der Systemelemente entwickeln. Das System-Grid wird wie folgt entworfen. Auf der X-Achse werden die Werte der Passivität und auf der Y-Achse die Aktivitätswerte abgetragen. Wird die Summe der Aktivitätswerte bzw. die Summe der Passivitätswerte durch die Anzahl der Systemelemente geteilt, ergeben sich im Sys- tem-Grid vier Felder, die durch die Bereichsgrenzen abgegrenzt werden.64 In unserem Beispiel liegen die Bereichsgrenzen bei jeweils 40/7 = 5,7. Übertragen wir für unser Beispiel die Aktivitäts- bzw. Passivitätswerte der Systemelemente in das System-Grid, ergibt sich folgendes Bild.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: System-Grid

Aus dem System-Grid lassen sich vier verschiedene Felder herauskristallisieren.

- Im aktiven Feld befinden sich Systemelemente starker Aktivität (sie beeinflus- sen andere Systemelemente sehr stark) und geringer Passivität (sie werden wenig von anderen Systemelementen beeinflusst). Auf das Beispiel bezogen ist der Absatzmarkt ein sehr aktives Systemelement, das durch die anderen Systemelemente relativ wenig beeinflusst wird.
- Das zweite Feld ist das Feld mit den ambivalenten Systemelementen. Diese
zeichnen sich durch eine relativ hohe Passivität und Aktivität aus. Diese Elemente beeinflussen das System genauso stark, wie sie vom System selbst auch beeinflusst werden. Auf unser Beispiel bezogen sind die ambivalenten Systemelemente der Wettbewerb und die Politik & Gesetzgebung.
- Im dritten Feld befinden sich die puffernden Systemelemente, die durch eine re- lativ niedrige Passivität und Aktivität gekennzeichnet sind. Dies bedeutet, dass diese Systemelemente wenig das System beeinflussen und auch wenig vom System beeinflusst werden. Die puffernden Systemelemente sind in unserem Beispiel die Wirtschaft und die Gesellschaft.
- Als letzte Gruppe lassen sich die passiven Systemelemente in Feld vier identifi- zieren. Sie zeichnen sich durch eine relativ hohe Passivität, aber relativ geringe Aktivität aus. Diese Systemelemente lassen sich vom System relativ stark beein- flussen, haben aber selbst einen relativ geringen Einfluss auf das System. In un- serem Beispiel sind die passiven Systemelemente der Beschaffungsmarkt und die Technologie.

Die vier Felder des System-Grids haben eine aufsteigende Bedeutung, wodurch sich aus dem System-Grid eine Rangfolge der Systemelemente ableiten lässt. Die Rangreihen- folge auf die Einflussbereiche des kleinen Telekommunikationsunternehmens nimmt folgende Gestalt an.

Rang 1: Absatzmarkt
Rang 2: Wettbewerb
Rang 3: Politik & Gesetzgebung
Rang 4: Wirtschaft
Rang 5: Gesellschaft
Rang 6: Technologieentwicklung
Rang 7: Beschaffungsmarkt

Wir möchten an dieser Stelle darauf hinweisen, dass die gewonnenen Ergebnisse keinen Realitätsbezug aufweisen, da die Einflusseinschätzung in der Vernetzungsmatrix, wahllos bzw. per Zufallszahlenziehung erfolgte.

Nachdem wir die Systemdynamik genau analysiert haben, können wir aus den gewonnenen Erkenntnissen konkrete Aktivitäten ableiten. Das bedeutet, wir wollen die Systemzusammenhänge für eventuelle Aktivitäten oder Strategien ausnutzen. Dafür existieren zwei Grundregeln.

- Die erste Regel besagt: Setze an jenem Punkt im System an, wo die größte Ver- stärkerwirkung im System erzielt werden kann. Ansatzpunkt sind also aktive Systemelemente und ambivalente Systemelemente mit starker Aktivbilanz.65
- Die zweite Regel besagt: Beeinflusse passive oder puffernde Systemelemente nicht nur direkt, sondern auch indirekt über die aktiven Systemelemente, da sie relativ stark von allen anderen Systemelementen beeinflusst werden.66

Was bedeutet dies nun im Folgenden? Die erste Regel bringt zum Ausdruck, dass eine Konzentration auf Elemente mit höchster Aktivwirkung erfolgen soll. Diese Elemente besitzen eine große Wirkung auf alle anderen Elemente im System. Sind wir in der Lage, diese Elemente aktiv zu beeinflussen, dann können wir aufgrund von Synergieeffekten bzw. Verstärkungseffekten unser Umfeld gemäß unseren eigenen Zielen lenken. Mit anderen Worten ausgedrückt: wir benutzen Elemente des aktiven Bereiches als treibende Kraft für unsere eigenen Ziele und verstärken dies, indem wir darüber hinaus Elemente des ambivalenten und passiven Bereichs beeinflussen.

4.1.2 Kritische Betrachtung der Vernetzungsanalyse

Kritisch anzumerken an der Analyse der Vernetzungsmatrix ist die Vernachlässigung indirekter Beziehungen.67 Es werden lediglich direkte Beziehungen zwischen den Sys- temelementen in die Analyse mit einbezogen68, wodurch die Aussagekraft vermindert wird. Man kann sich z.B. vorstellen, dass Einflussfaktoren aus dem Bereich der Politik & Gesetzgebung auf Faktoren der Technologie einwirken und diese wiederum Auswir- kungen auf Faktoren des Wettbewerbs haben. Diese indirekte Wirkung von Politik & Gesetzgebung auf den Wettbewerb über den Einflussbereich Technologie wird in der Vernetzungsanalyse außer Acht gelassen.

Ein zweiter Kritikpunkt ist die Bewertungsskala. Hier stellen sich uns die Fragen, wel- che Bewertungsskala wir zugrunde legen sollten? Welche Abstufung ist am besten ge- eignet? In der Literatur werden verschiedene Abstufungen aufgeführt. Schwager und Heinecke schlagen eine Bewertung von Null bis Zwei, Götze hingegen eine Bewertung von Null bis Drei vor. Wir könnten aber auch eine Bewertung von Null bis Fünf (oder auch eine Bewertung von Null bis Zehn) vorschlagen. Eine solche Bewertung würde zwar genauer sein, aber auch für den Bearbeiter einen höheren geistigen Aufwand be- deuten. In diesem Zusammenhang tritt auch das Problem der sprachlichen Unschärfe auf. In der Vernetzungsmatrix wird der Einfluss zwischen den Systemelementen bewer- tet bzw. gemessen. Der Einfluss wird in Form von ordinalen Werten angegeben. Sind die Experten überhaupt in der Lage, eine exakte Abgrenzung zwischen mittleren, star- ken oder sehr starken Einfluss vorzunehmen? Was bedeutet eigentlich mittlerer, starker bzw. sehr starker Einfluss? Anhand welcher Kriterien wird gemessen, wann ein Einfluss stark oder sehr stark ist? Diese Fragen werden nicht beantwortet. Jede Person definiert z.B. einen starken Einfluss unterschiedlich. Das bedeutet, wenn wir eine solche Bewer- tung vornehmen, sind wir gezwungen, vorher genau festzulegen, ab wann ein Einfluss mittel, stark oder sehr stark ist. Diese Definition wird in der Vernetzungsanalyse nicht vorgenommen. Auch eventuelle Überschneidungsbereiche (z.B. der Übergang von ei- nem starken zu einem sehr starken Einfluss) können mit dieser Skala nicht abgedeckt werden. Zur Problematik der Abstufung einer Skala können wir Folgendes sagen. Eine Skala mit fünf oder mehr Abstufungen ist zwar genauer und hat den Vorteil, dass eine bessere Abgrenzung zwischen den verschiedenen Einflussbereichen (z.B. sehr niedrig, niedrig, mittel, hoch, sehr hoch) vorgenommen werden kann, aber Praxiserfahrungen haben gezeigt und zeigen, dass Menschen kaum in der Lage sind, die Abstufungen bei Skalen mit großen Spannweiten annähernd einzuschätzen. Diese Abgrenzungsprobleme treten insbesondere dann auf, wenn eine sprachliche Unschärfe vorliegt. Die Problema- tik der sprachlichen Unschärfe kommt in der Vernetzungsmatrix deutlich zum Tragen. Daher sind wir der Meinung, dass eine punktgenaue Bewertung nicht sinnvoll ist. Wei- terhin können wir kritisch anmerken, dass bei der Bewertung die Richtung des Einflus- ses nicht berücksichtigt wird. Es wird keine Aussage darüber getroffen, ob der Einfluss, den ein Element auf ein anderes Element ausübt, positiv oder negativ (also fördernd oder hinderlich) ist. Nachteilig ist zudem, dass die abgeleiteten Zeilen- und Spalten- summen, die Kennzahlen, Matrizen oder grafischen Darstellungen keine exakte Struktur des Systems angeben können, da diese auf der Verdichtung der vielen Beziehungen zwischen den Elementen beruhen.69

Ein weiterer Kritikpunkt, der an dieser Stelle nicht unbeachtet bleiben sollte, ist die Tat- sache, dass in der Vernetzungsmatrix Rechenoperationen mit ordinalen Werten vorge- nommen werden. Laut der Definition einer Ordinalskala wird dem Untersuchungsge- genstand für das entsprechende Merkmal genau eine Kategorie oder genau ein Name zugeordnet.70 Die Kategorien werden meist in Form von Zahlen verwendet. Diese las- sen sich in eine Rangreihenfolge bringen aber die Abstände sind nicht sinnvoll interpre- tierbar. Mathematische Operationen sind nicht durchführbar, da die Werte keinen nume- rischen Wert, sondern eine bestimmte Kategorie charakterisieren. Dieser kausale Zu- sammenhang verhindert mathematische Operationen. In der Vernetzungsanalyse werden jedoch trotz dieses kausalen Zusammenhangs mit den ordinalen Werten die Kennziffern Aktivsumme und Passivsumme berechnet. Dies widerspricht eindeutig der Definition ordinaler Werte. Zum Abschluss unserer Betrachtung wird auf ein Problem hingewiesen, das nicht nur in der Vernetzungsanalyse auftritt, sondern auch in den spä- ter folgenden Verfahren thematisiert wird. Es handelt sich um die Problematik der Iden- tifizierung und Definition der Einflussfaktoren bzw. Einflussbereiche. Zur Lösung die- ses Problems werden Experten herangezogen, welche durch ihr umfangreiches Wissen diesem Problem leichter begegnen können. In der Vernetzungsanalyse stellt dieses nur ein kleines Problem dar. In den später folgenden Verfahren ist diese Problematik auf- grund der Vielzahl an Eingangsdaten nicht zu unterschätzen. Die letzte Bemerkung in dieser Analyse erfolgt zu den aufgeführten Regeln des System-Grids. Eine Regel be- sagt, dass hauptsächlich an Elementen des aktiven und ambivalenten Bereichs angesetzt werden soll. Warum sollen nur diese Elemente betrachtet und beeinflusst werden? Pas- sive und puffernde Systemelemente können von anderen Systemelementen so stark be- einflusst werden, dass sie selbst irgendwann einen Einfluss auf andere Elemente aus- üben können. Vor diesem Hintergrund sind wir der Meinung, dass an allen Systemele- menten angesetzt werden sollte und keine Fixierung auf stark beeinflussende Systemelemente erfolgen darf.

Neben den genannten Nachteilen hat die Analyse von Vernetzungsmatrizen auch Vor- teile. Man erlangt mit geringem Aufwand und geringen Kosten Einblicke in die System- struktur und ihre Zusammenhänge.71 Durch die aus der Vernetzungsanalyse abgeleiteten Kennziffern und die daraus resultierende Positionierung im System-Grid gewinnen wir Erkenntnisse über die Wichtigkeit einzelner Einflussbereiche und Einflussfaktoren. Zu- sätzlich noch kurz eine Bemerkung zum System-Grid. Die Vernetzungsanalyse benutzt ordinale Daten zur Darstellung der Systemzusammenhänge. Durch die Verwendung ordinaler Werte sind die Positionierungen im System-Grid nicht als exakte Punktkoor- dinaten der Systemelemente zu verstehen, sondern eher als Vertreter eines Positionie- rungsbereiches.72 Aus diesem Grund spielt die Feinheit der Bewertungsskala keine Rol- le und die Grobpositionierung bleibt für alle Skalenbreiten gleich.

4.2 Die Konsistenzanalyse - Ein Verfahren zur Erstellung von Szenarien

Das zweite Verfahren, welches wir im Rahmen dieser Arbeit näher beleuchten wollen, ist die Konsistenzanalyse. Die Konsistenzanalyse kommt im Rahmen der Szenario- Technik schwerpunktmäßig im vierten Schritt - Bildung und Auswahl konsistenter An- nahmebündel (Erstellung von Rohszenarien) - zum Einsatz. In unseren Ausführungen wollen wir die methodische Vorgehensweise der Konsistenzanalyse in ihren Grundzü- gen darstellen und im weiteren Verlauf Vor- und Nachteile dieses Verfahrens erörtern.

4.2.1 Methodische Vorgehensweise der Konsistenzanalyse

Im Rahmen der Szenario-Technik wird die Konsistenzanalyse zur Bildung von Rohsze- narien verwendet. Wie bereits in den Ablaufschritten der Szenario-Technik erläutert, stellen diese Rohszenarien ein Bündel aus den alternativen Entwicklungen der kriti- schen Deskriptoren dar. Diese kritischen Deskriptoren werden zusammen mit den unkri- tischen Deskriptoren in den vorangegangenen Schritten ermittelt. Auf deren genaue Ermittlung wollen wir nicht näher eingehen. Wir verweisen an diesem Punkt auf die einschlägige Literatur und nehmen die unkritischen und kritischen Deskriptoren als ge- geben hin.

Bevor wir auf die prinzipielle Vorgehensweise der Konsistenzanalyse eingehen, sollten wir uns erst klarmachen, was der Begriff „Konsistenz“ bedeutet. In der Modelltheorie bedeutet Konsistenz, dass ein Modell frei von logischen Widersprüchen - auch Kontra- diktionen73 genannt - ist.74 Eben diese Widerspruchsfreiheit ist auch für die Zukunfts- szenarien wichtig. Zukunftsbilder mit widersprüchlichen Projektionen sind für den Nut- zer unglaubwürdig und demzufolge auch nutzlos. Solche inneren Widersprüche in Zu- kunftsbildern werden als Inkonsistenzen bezeichnet. Zur Veranschaulichung dieses Sachverhaltes könnten wir uns z.B. ein Zukunftsbild vorstellen, in dem mit einem dras- tischen Anstieg der Energiepreise gerechnet wird und gleichzeitig ein Rückgang der Nutzung alternativer Energieformen (z.B. Solarenergie) zu verzeichnen ist. Demgegen- über ist die Kombination drastischer Anstieg der Energiepreise und stärkere Nutzung alternativer Energieformen konsistent. Zukunftsbilder mit solchen Kombinationen sind folglich besonders glaubwürdig. Aus diesem Grund sind die wider-spruchsfreien Zu- kunftsprojektionen eines Szenarios besonders entscheidend für dessen Glaubwürdigkeit. Zu diesem Zweck wird für die erstellten Projektionsbündel eine Konsistenzanalyse durchgeführt. Es wird mit dieser Konsistenzeinschätzung geprüft, welche Annahmen gut zueinander passen. Diese konsistenten Annahmen bilden dann jeweils ein Projekti- onsbündel, ein sogenanntes Rohszenario. Aus den erstellten Annahmebündeln werden folglich diejenigen mit einem relativ hohen Konsistenzwert ausgewählt. Diese bilden die Grundlage, um im Folgeschritt die Endszenarien zu erstellen. Die Konsistenzanalyse ist in folgende zwei Schritte, der paarweisen Konsistenzbewertung und einer bündel- weisen Konsistenzbetrachtung, gegliedert.75

Paarweise Konsistenzbewertung

Um glaubwürdige Zukunftsbilder zu erhalten, müssen wir im ersten Schritt, der paar- weisen Konsistenzbewertung, die einzelnen Zukunftsprojektionen76 auf ihre Verträg- lichkeit hin überprüfen. Wir stellen uns zu diesen Zeitpunkt die Frage: „Verträgt sich die Projektion A mit der Projektion B?“, „Widersprechen sich Projektion B und Projek- tion D?“ oder „Wie vertragen sich Projektion A und Projektion D?“. Die Aufgabe be- steht nun darin, für jedes Projektionspaar einen Konsistenzwert anzugeben, also einzu- schätzen, ob und wie sie zueinander passen. Diese Bewertung erfolgt anhand einer Be- wertungsskala. In der Literatur werden zwei unterschiedliche Skalen aufgeführt. Die erste Skala77 nimmt eine Bewertung in folgenden Abstufungen vor.

1 = totale Inkonsistenz (beide Projektionen schließen sich aus - in einem glaubwürdigen Szenario können beide nicht gemeinsam auftreten)

2 = partielle Inkonsistenz (beide Projektionen widersprechen einander - die Glaubwürdigkeit eines Szenarios leidet bei gleichzeitigem Auftreten beider Pro- jektionen)

3 = Neutralität (es tritt keine gegenseitige Beeinflussung der Projektionspaare auf

- die Glaubwürdigkeit eines Szenarios leidet nicht beim gleichzeitigen Auftreten beider Projektionen)

4 = gegenseitiges Begünstigen (es ist gut vorstellbar, dass beide Projektionen in einem Szenario gleichzeitig auftreten)

5 = sehr starke gegenseitige Unterstützung (bei Eintreten der einen Projektion kann auch mit dem Eintreten der anderen Projektion gerechnet werden)

Alternativ kann auch der nun aufgeführte Bewertungsmassstab zur Bewertung herange- zogen werden. Reibnitz geht von einer Bewertung -2 (die Projektionspaare sind absolut inkonsistent) bis +2 (die Projektionen vertragen sich und verstärken sich gegenseitig) aus.78

- 2 = Beziehung ist absolut inkonsistent

- 1 = Beziehung ist teilweise inkonsistent

[...]


1 wie sie in den 60er und 70er Jahren zu verzeichnen waren

2 Krieg im Irak oder Terroranschläge, z.B. am 11.09.2001 auf das World Trade Center

3 Öffnung des chinesischen Marktes

4 Vgl. Hüttner 1986, S. 1.

5 Vgl. Götze 1990, S. 303.

6 Vgl. Töpfer / Afheldt 1986, S. 7.

7 Vgl. Götze 1990, S. 304.

8 Vgl. Reibnitz 1981, S. 37.

9 Vgl. Reibnitz 1992, S. 190.

10 Vgl. Frank 1999, S. 88.

11 Vgl. Kaluza / Ostendorf 1995, S. 4.

12 Die Rand Corporation war ein vom amerikanischen Verteidigungsministerium gegründetes Institut für Zukunftsforschung.

13 Vgl. Kaluza / Ostendorf 1995, S. 5.

14 Fink / Schlake 1995, S. 19.

15 Vgl. Reibnitz 1992, S. 12.

16 Vgl. Meyer-Schönherr 1991, S. 13.

17 Vgl. Reibnitz 1992, S. 12.

18 Vgl. Götze 1993, S. 75.

19 Vgl. Deutsche Shell AG 1991.

20 Vgl. Deutsche Shell AG 1993.

21 Vgl. Kaluza / Ostendorf 1995, S. 7.

22 Reibnitz und Geschka sind beide ehemalige Mitarbeiter des Battelle-Instituts.

23 Vgl. Reibnitz 1992, S. 265 ff.

24 vielfach in der Literatur auch als Szenario-Analyse bezeichnet

25 Vgl. Heinecke/Schwager 1996, S. 6.

26 Heinecke/Schwager 1995, S. 6.

27 Vgl. Frank 1999, S. 89.

28 konsistent = in sich stimmig, widerspruchsfrei

29 Vgl. Frank 1999, S. 89.

30 im Sinne von einem Zukunftsbild

31 Vgl. Frank 1999, S. 89.

32 Gausemeier / Fink / Schlake 1996, S. 111.

33 Vgl. Schwager / Heinecke 1995, S. 8.

34 Vgl. Gausemeier / Fink / Schlake 1996, S. 111.

35 Meyer-Schönherr 1992, S. 16.

36 eigene Abbildung

37 im Sinne einer Analyse der gegenwärtigen Situation und der vorherrschenden Strukturen und Bedingungen

38 Vgl. Kaluza / Ostendorf 1995, S. 11.

39 Vgl. Heinecke / Schwager 1995, S. 10.

40 Vgl. Heinecke / Schwager 1995, S. 11.

41 inhaltliche Erläuterung - Vgl. Meyer-Schönherr 1998, S. 19-20.

42 Heinecke / Schwager 1995, S. 12.

43 Vgl. Heinecke / Schwager 1995, S. 16.

44 Vgl. Heinecke / Schwager 1995, S. 16.

45 als Untersuchungsfeld legen wir exemplarisch ein Unternehmen zugrunde

46 Vgl. Sandmann 1998, S. 21.

47 Vgl. Kaluza / Ostendorf 1995, S. 20.

48 Vgl. Sandmann 1998, S. 21.

49 Einflussfaktoren die im ersten und zweiten Schritt ermittelt worden

50 Vgl. Kaluza / Ostendorf 1995, S.21.

51 Konsistenzprüfung ist die Untersuchung auf gegenseitige Verträglichkeit.

52 Vgl. Heinecke / Schwager 1995, S. 31.

53 Vgl. Meyer-Schönherr 1992, S. 192 f.

54 Vgl. Meyer-Schönherr 1992, S. 53.

55 Vgl. Sandmann 1998, S. 21.

56 Störereignisse sind plötzlich auftretende interne und externe Ereignisse, die trendmäßig nicht erkennbar waren. Sie beeinflussen zusätzlich die Richtung der Entwicklungsverläufe.

57 Brainstorming, Morphologischer Kasten und 635-Methode - um nur einige Kreativitätstechniken zu nennen

58 Vgl. Heinecke / Schwager 1995, S. 47.

59 Vgl. dazu Kapitel 3.5.

60 Reibnitz 1992, S. 35.

61 Die Aktivsumme entspricht der Zeilensumme für jedes Systemelement.

62 Die Passivsumme entspricht der Spaltensumme für jedes Systemelement.

63 Vgl. Gausemeier / Fink / Schlake 1996, S. 194.

64 Die Bereichsgrenze entspricht der Summe der Aktivitätswerte bzw. Passivitätswerte geteilt durch die Anzahl der Systemelemente.

65 Vgl. Reibnitz 1992, S. 39.

66 Vgl. Heinecke / Schwager 1995, S. 28.

67 Um indirekte Beziehungen mit einzubeziehen, sollte ergänzend auf die MINIMAC-Methode zurückgegriffen werden. Vgl. dazu Godet 1987, S. 38ff.

68 Vgl. Götze 1993, S. 148.

69 Vgl. Götze 1993, S. 153.

70 Vgl. http://de.wikipedia.org/wiki/Ordinalskala vom 05.02.05.

71 Vgl. Vester / Hesler 1980, S. 277.

72 Vgl. Mißler-Behr 1993, S. 83.

73 Eine Kontradiktion ist allgemein eine logisch falsche Formel bzw. eine logisch falsche Aussage.

74 Vgl. Zelewski 1989, S. 7.

75 Vgl. Gausemeier / Fink / Schlake 1996, S. 255.

76 Mit Zukunftsprojektionen sind die alternativen Zukunftsentwicklungen der kritischen Deskriptoren gemeint.

77 in Anlehnung an Gausemeier / Fink / Schlake 1996

78 Vgl. Reibnitz 1992, S. 50 - 52.

Ende der Leseprobe aus 153 Seiten

Details

Titel
Kritische Analyse ausgewählter Verfahren zur Erstellung von Szenarien
Hochschule
Otto-von-Guericke-Universität Magdeburg  (Lehrstuhl für Unternehmensführung und Organisation)
Note
2,3
Autor
Jahr
2005
Seiten
153
Katalognummer
V57016
ISBN (eBook)
9783638515634
Dateigröße
1306 KB
Sprache
Deutsch
Schlagworte
Kritische, Analyse, Verfahren, Erstellung, Szenarien
Arbeit zitieren
Carsten Redlich (Autor), 2005, Kritische Analyse ausgewählter Verfahren zur Erstellung von Szenarien, München, GRIN Verlag, https://www.grin.com/document/57016

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Kritische Analyse ausgewählter Verfahren zur Erstellung von Szenarien


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden