Der digitale Zwilling der Ökonomie

Lakonische Kapitalismuskritik Teil IV


Essay, 2020

10 Seiten


Gratis online lesen

"Man soll die Dinge so einfach wie möglich machen, aber nicht einfacher."

Albert Einstein

Die Komplexität der Ökonomie nimmt durch die steigende Vernetzung (z. B. globale Wertschöpfungsketten) und die wachsende Vielfalt (z. B. verwobene Finanzdienstleistungen) stetig zu. Makroökonomische Modelle, wie beispielsweise die dynamisch stochastischen allgemeinen Gleichgewichtsmodelle (DSGE-Modelle), kommen meist recht realitätsfern daher (vgl. Romer 2016) und können nur begrenzt als eine geeignete Hilfestellung für politische Entscheidungen fungieren (vgl. Mankiw 2006). Ein verlässliches Instrument, mit dem wirtschaftspolitische Initiativen bzw. Maßnahmen über einen längeren Zeitverlauf bewertet oder maßgeschneidert entwickelt werden können, ist auf einer solchen Grundlage nicht zu realisieren. In einer Welt mit den unterschiedlichsten AkteurInnen, welche nicht nur heterogene Absichten bzw. Zielsetzungen verfolgen, sondern sich auch in ihren Eigenschaften deutlich unterscheiden, kann kein repräsentativer Haushalt und kein repräsentatives Unternehmen diese Vielfältigkeit adäquat widerspiegeln. Die derzeitigen Modelle der Mainstream-Ökonomie geraten spätestens hier an ihre Grenzen. Denn allein schon die Darstellung von Unternehmen, in denen vielschichtige Prozesse ineinandergreifen sowie diverse Abhängigkeiten bestehen, kann aufgrund von Limitierungen der in der Ökonomie genutzten mathematischen Modelle (vgl. Gahlen 1972) nicht realitätsnah erfolgen. Die in den Modellen getroffenen Annahmen bzw. Vereinfachungen verzerren das tatsächliche Erscheinungsbild des komplexen ökonomischen Systems. Davon abgesehen wird es in einer globalisierten Welt immer schwieriger, Auswirkungen von Wirtschaftspolitiken – sowohl die gewünschten Ergebnisse als auch unerwünschte Nebeneffekte – im Voraus angemessen zu antizipieren/prognostizieren. Unsicherheit oder eine unangebrachte Erwartungshaltung können, neben anderen Erscheinungen, die Folge kontinuierlicher Komplexitätssteigerungen sein. Im Gegensatz zu anderen Wissenschaften sieht sich die Makroökonomie mit der Schwierigkeit konfrontiert, dass Experimente mit echten Versuchspersonen kaum realisierbar und auch vom ethischen Standpunkt aus nicht vertretbar wären. Die Erstellung von Modellen ist daher unerlässlich. Allerdings führen Modelle, welche die Realität mithilfe von Annahmen sowie Aggregationen simplifizieren, zu Zerrbildern und können so kaum zur Lösung ökonomischer Probleme beitragen.

Es bedarf einer Digitalisierung makroökonomischer Modelle, damit die Realität besser beschrieben werden kann und damit es gelingt, ein Werkzeug zu erschaffen, mit dessen Unterstützung wirtschaftspolitische Initiativen erfolgreicher implementiert werden können.

Moderne Ansätze in der Unternehmenswelt oder auch im Militärwesen zeigen, wie solche Komplexitätsprobleme angegangen werden können. So wird durch die Anwendung einer Enterprise Architecture bzw. Unternehmensarchitektur versucht, verschiedene Sichten auf Abläufe im Unternehmen (z. B. Herstellungsprozess) oder auf Verbindungen der Organisationsbereiche (z. B. IT-Infrastruktur) sowie der angeschlossenen Umgebung (z. B. vor- oder nachgelagerte Lieferketten) zu erzeugen, um einen ganzheitlichen Blick herbeizuführen. Abgesehen von der Schaffung einer stetigen (funktionalen) Transparenz für die Bewertung der Ist-Situation wird dieser Architekturansatz eigentlich für die geschäftszielorientierte Anpassung der IT-Landschaft an die sich kontinuierlich ändernden Markt- und Rahmenbedingungen verwendet. Neben der ursprünglichen Fokussierung auf die IT-Unterstützung lässt sich dieser Ansatz bzw. diese Methode auf die gesamte Organisation ausweiten. Eine solche Unternehmensarchitektur beschreibt also die Eigenschaften sowie die Struktur der Elemente eines Systems und stellt die Zusammenhänge zwischen den einzelnen Bestandteilen dar. Mit diesem Architekturkonzept lassen sich verschiedene Granularitätsstufen erreichen, wodurch die Detailschärfe an die jeweiligen Bedürfnisse angepasst werden kann. Vorstellbar ist diese Systematik anhand einer Gebäudearchitektur. Für die unterschiedlichen Zielgruppen, seien es die diversen Gewerke auf der Baustelle oder die AuftraggeberInnen, stehen spezifische Ansichten bereit, um den benötigten Wissensstand zu generieren. Mithilfe einer solchen architekturalen Darstellung sollen zugrundeliegende Problem- bzw. Fragestellungen ganzheitlich beleuchtet werden. Ein entsprechender Analysebedarf kann sich dabei aus der Beschaffung neuer Technologien für die Steigerung der Effizienz in Unternehmen ergeben. Als konkretes Anwendungsbeispiel kann man sich die Informationsgewinnung zur Einführung einer neuen Steuerungssoftware im Produktionsprozess vorstellen. Denn hier sollte zuvor bekannt sein, welche Maschinen angeschlossen werden müssen und welche Anforderungen sich damit an die zu beschaffende Software stellen. Für die Anfertigung solcher Architekturen stehen verschiedene Rahmenwerke, z. B. TOGAF Standard oder NATO Architecture Framework, bereit, welche die grundsätzliche Vorgehensweise und das Metamodell empfehlen/vorgeben.

Das hier vorgestellte Konzept sieht vor, die Methode Architektur auch im makroökonomischen Bereich einzusetzen. Analog zu den Rahmenwerken aus der Unternehmensarchitektur bedürfte es demnach erst einmal eines Economic Architecture Frameworks, auf dessen Grundlage die Volkswirtschaften oder nur einzelne Bereiche (z. B. Industriecluster) detailliert beschrieben werden könnten, um auch auf breiter Ebene die Konnektivität der Modelle sicherzustellen. Durch eine solche Einheitlichkeit bzw. Vorgabentreue wären wissenschaftliche Kooperationen unkompliziert über verschiedene Institute oder Forschungsprojekte hinweg denkbar. Es würde parallel zur formal-mathematischen Verständigung eine weitere gemeinsame Sprache geschaffen werden, welche eine bildlichere bzw. insgesamt verständlichere Kommunikation ermöglicht. Somit könnten auch nicht ökonomisch-ausgebildete Personen in solchen Projekten partizipieren und interdisziplinäre Forschung würde gefördert werden. Neben erheblichen Transparenzsteigerungen im gesamten System befähigt die Methode Architektur also zur Durchführung komplexer/ganzheitlicher Analysen und zur Herausstellung von Optimierungspotentialen in Prozessen sowie Strukturen. Darüber hinaus ließe sich eine umfassende wie auch kontinuierliche Abstimmung zwischen den Anforderungen der ökonomischen Sphäre und denen der menschlichen Bedürfnisse ermöglichen. Denn es darf nicht vergessen werden, dass die Ökonomie dem Menschen dienen sollte und eben nicht der Mensch der Ökonomie.

Aufbauend auf einer ökonomischen Architektur, sozusagen dem Bauplan für den nachfolgenden Schritt, ließe sich ein Industriecluster oder infolge intensiver Modellierungsvorhaben später auch eine ganze Volkswirtschaft realitätsnah imitieren. Dabei können agentenbasierte Modellierungen (ABM) bzw. Simulationen (ABS), welche bereits eindrucksvoll Einzug in die sozialwissenschaftliche Forschung gehalten haben, als Werkzeug dienen. Unter ABM versteht man eine computergestützte sowie individuenbasierte Methode, die ermöglicht, skalierbare Modelle mit einer Vielzahl von heterogenen Agenten in einer adaptiven Umwelt zu erstellen (Gilbert 2020, 1). Es entstehen dynamische Systeme, in denen Agenten untereinander sowie mit ihrer Umgebung interagieren und situativ-angepasste, eigenständige Entscheidungen treffen. Aus dieser Bottom-up-Perspektive heraus lassen sich emergente Phänomene untersuchen. Zudem können Experimente in verschiedenen Settings durchgeführt und die Ergebnisse, u. a. auch grafisch, in Echtzeit angezeigt werden. Ferner bestehen diverse Möglichkeiten, die Resultate im Nachgang mit dem bestehenden makroökonomischen Toolkit zu analysieren. Durch diese Methode lassen sich Entscheidungsprobleme bzw. Problemstellungen adressieren, die mit den klassischen Analyse- und Optimierungstechniken kaum mehr anzugehen sind. Ein gelungenes Beispiel für die erkenntnisreiche Anwendung der Methode ABM findet sich in der Modellierung von Finanzmärkten. So können agentenbasierte Finanzmarktmodelle als künstliche Labore eingesetzt werden, um zur Verbesserung der institutionellen Rahmenbedingungen beizutragen (z. B. Versuche mit der Transaktionssteuer), da diese Modelle u. a. die Dynamiken der Märkte gut nachahmen (Westerhoff 2008). Aufgrund individuell-programmierbarer Möglichkeiten, inhärente Wirkungszusammenhänge umfassend darzustellen und komplexe Systeme zu simulieren, hat die Methode ABM in den vergangenen Jahrzehnten zunehmende Verbreitung über verschiedene Disziplinen hinweg – von Biologie über Physik bis Verkehrswissenschaft – erfahren. Bei der Vorgehensweise zur Erstellung eines solchen Modells ist man recht ungebunden. Grimm und Railsback (2019, 7ff.) schlagen beispielsweise vor, mit einem einfachen Modell zu beginnen und dieses kontinuierlich zu erweitern. So wie es laut Scrum Framework in der Softwareerstellung oder im Projektmanagement vorgesehen ist. Dieses iterative und inkrementelle Vorgehen ist der Tatsache geschuldet, dass selten zu Beginn einer Modellierung ein ganzheitliches Verständnis über das zu modellierende System vorhanden ist und somit u. a. nicht entschieden werden kann, welche Elemente bedeutend und welche Zusammenhänge irrelevant sind. Hierzu schlagen Grimm und Railsback einen Modeling Cycle vor, eine Modellierungssystematik, welcher kurzgefasst lautet: formuliere die Fragestellung, stelle Hypothesen auf, wähle die Modellstruktur, erstelle das Modell, analysiere das Modell und kommuniziere die Ergebnisse bzw. wiederhole den Zyklus. Die ersten drei Punkte – im Speziellen die Modellstruktur – würden durch eine Economic Architecture bereits gut vorbereitet. Kontinuierlich gepflegte bzw. weiterentwickelte Modelle der relevantesten Systeme können dazu beitragen, zeitkritische Analysen qualitativ-hochwertig auszuführen, um z. B. in Krisenfällen international abgestimmte Handlungsempfehlungen für politische EntscheidungsträgerInnen zu formulieren. Hierbei kommt der Wiederverwertbarkeit der Modelle eine zentrale Bedeutung zu. Denn wenn grundlegende Modellierungskonventionen entwickelt bzw. beachtet würden, könnte im Zeitverlauf durch mehrere ZuträgerInnen ein ganzheitliches Bild entstehen. Hierzu bedarf es vielfältiger Standardelemente, also Bausteine, die in ihrer Form und Funktion mehrfach eingesetzt werden, um u. a. Anpassungen bzw. Weiterentwicklungen zeitnah in allen betroffenen Modellen durchzuführen. Ein solches Element könnte z. B. eine Agentengruppe umfassen und deren psychologische oder wirtschaftliche Eigenschaften vorgeben, damit diese dem aktuellen Forschungsstand entsprechen. Für eine realitätsnahe Modellierung wäre die interdisziplinäre Kooperation von besonderer Wichtigkeit. Ferner würde es einfacher werden, die methodische Qualität von Forschungsergebnissen bzw. Veröffentlichungen zu prüfen, da die Verwendung weithin abgestimmter Standardelemente eine hohe Transparenz sowie weitreichende Vergleichbarkeit erlaubt.

Ein dankbares Werkzeug für die agentenbasierte Modellierung, welches bereits in vielen Fachbereichen erfolgreich genutzt wird, ist die von der Northwestern University kostenfrei zur Verfügung gestellte Software NetLogo, welche von Uri Wilensky (1999) entwickelt wurde. Hierbei handelt es sich um ein Modellierungstool mit eigener Programmiersprache sowie integrierter Modellierungsumgebung, das sowohl einen einfachen Einstieg in die Modellbildung und Simulation von Systemen als auch die Nutzung in anspruchsvollen wissenschaftlichen Arbeiten ermöglicht. Im ökonomischen Kontext wurde dieses Tool u. a. bereits von Lynne Hamill und Nigel Gilbert (2016) auf verschiedene Problemstellungen erkenntnisbringend angewendet. Zudem erhält man mit dieser Software eine umfangreiche Modellbibliothek mit vielen Anregungen und den Support einer großen Community.

Moderne Ansätze in der Ökonomie, wie sie etwa durch Daniel Kahneman und Amos Tversky mit ihrer Prospect Theory bzw. durch die Erkenntnisse der Behavioral Economics eingeführt wurden, können dazu beitragen, dass den Agenten realitätsnahe, menschliche Verhaltensweisen gegeben werden. Dies kann dabei durch die Implementierung verschiedener Heuristiken bzw. individuell-angepasster sowie begrenzt-rationaler Verhaltensweisen geschehen. Darüber hinaus könnten ökonomische Feldexperimente (vgl. Duflo und Banerjee 2017) zum besseren Verständnis der regionalen Gegebenheiten durchgeführt werden, um das Verhalten der Agenten noch realitätsnaher zu modellieren. Es bedarf also einer vernünftigen Mikrofundierung, welche nicht darauf abzielt, „dass sich sämtliche makroökonomischen Veränderungen mit Optimierungskalkülen von Haushalten und Unternehmen in einem Gleichgewichtsmodell erklären lassen müssen“ (Binswanger 2016). Die Mikrofundierung als solche, also nicht in einem formalen Korsett und mit der unrealistischen Annahme weitestgehend rationaler Erwartungen der MarktteilnehmerInnen, wie sie von Robert Lucas (1976) eingebracht wurde, ist jedoch von höchster Wichtigkeit, um makroökonomische Ereignisse zu verstehen bzw. beeinflussen zu können. Es ist deshalb bedeutsam, eine angemessene Diversität an Agenten in einem makroökonomischen Modell zuzulassen, welche der Erkenntnis gerecht wird, dass Menschen sehr unterschiedlich und keine bloßen rationalen Nutzenmaximierer sind, wie Kahnemann und Tversky bereits 1979 aufgezeigt haben. Deshalb sollten mithilfe einer Economic Architecture und deren verschiedenen Perspektiven bzw. Sichten die Eigenschaften sowie Verhaltensweisen der Menschen und Unternehmen sowie deren Zusammenhänge zunächst erfasst/abgestimmt werden, bevor entsprechende Simulationsmodelle problemorientiert zu entwerfen sind.

Die benötigten Daten, um Agenten und deren Umwelt mit realitätsnahen Eigenschaften ausstatten zu können, sind bereits überwiegend durch gut aufgestellte bzw. strukturierte Statistikbehörden und eine Vielzahl kommerzieller Marktforschungsinstitute vorhanden. Das beginnende Big Data -Zeitalter wird diese Datenverfügbarkeit noch weiter in Qualität und Quantität verbessern. Die Problematik jedoch, die hieraus erwächst, ist die Eigentümerfrage der Daten. Denn auch die Privatsphäre der Menschen muss gewahrt bleiben. Vor allem ist zu verhindern, dass solche Modelle bzw. Simulationen dazu missbraucht werden, gefährliche Abhängigkeiten und (Quasi-)Monopole zu schaffen, darauf abzielend den Gewinn oder die Marktkonzentration von Unternehmen zu forcieren. Hierbei wird eine Balance gefunden werden müssen zwischen dem Herbeiführen der benötigten Transparenz auf der einen Seite und der Wahrung des Datenschutzes auf der anderen (Stichwort gläserner Konsument), um individuellen Wohlstand, globale Nachhaltigkeit sowie weitreichende Chancengleichheit mit Unterstützung dieser Vorgehensweise gerecht zu stärken.

Die hier vorgestellte Zusammenführung ökonomischer Architekturen mit der agentenbasierten Modellierung könnte einen digitalen Zwilling der Ökonomie kreieren, mit dessen Unterstützung wirtschaftspolitische Initiativen, worunter beispielsweise zielgenaue Maßnahmen zur Förderung der Konjunktur und Investitionen in Industriecluster bzw. Schlüsselindustrien fallen, effektiver sowie effizienter geplant und umgesetzt werden. Verschiedene Handlungsalternativen könnten auf einer solchen Plattform experimentell durchgespielt werden, um diese erst nach erfolgreicher Testphase risikoarm zu implementieren. Wirtschaftspolitische Vorhaben könnten somit vor einer Realisierung objektiv untersucht werden, um deren Wirksamkeit zu validieren sowie eventuelle Nebenwirkungen herauszufinden. Ferner wäre es möglich, hierdurch frühzeitig eine entsprechende Kosten-Nutzen-Analyse durchzuführen, um subjektive Einflüsse bzw. Faktenverzerrungen in der jeweiligen politischen Debatte zu reduzieren bzw. zu vermeiden. Zudem würde, überspitzt geschrieben, die Förderung des Gemeinwohls im ökonomischen Sinne nun nicht mehr der unsichtbaren Hand überlassen, sondern es könnten Defizite in den volkswirtschaftlichen Strukturen erkannt und optimiert werden, um einen gerecht verteilten Wohlstand und die hierfür nötige Chancengleichheit zu ermöglichen. Ein solcher Ansatz wäre aber nicht nur dazu geeignet, die bestehenden Strukturen bzw. Regeln einer Volkswirtschaft zu optimieren, er könnte ebenso dazu beitragen, Entwicklungsszenarien für strukturschwache Regionen zu entwerfen. Entwicklungshilfe wäre so erheblich nutzenstiftender einsetzbar.

Unbestritten ist wohl, dass ein solches ganzheitliches Modell einer gesamten Volkswirtschaft nicht in einem Guss zu erstellen wäre. Deshalb kann es nicht darum gehen, ein Super-Modell mit allen real existierenden Elementen und Beziehungen anzufertigen, sondern eine Datenbank mit vielen kleineren Modellen zu erstellen, welche dann zu Analysezwecken bzw. zur Beantwortung von Forschungsfragen zusammengeführt werden können. Vielmehr geht es also darum, einen Startpunkt zu schaffen, sodass mithilfe einheitlicher Konventionen bei der Modellierung – sowohl im Bereich der Economic Architecture als auch für die ABM-Simulationen – einzelne Forschungsprojekte und deren Modelle in einem Repository (vgl. Fischer und Hofer 2011) gesammelt werden können und so für andere Forschungsvorhaben verwertbar sind. Diese ökonomischen Architekturen und agentenbasierten Modelle sollten also im Sinne einer allgemeinen Verfügbarkeit für wissenschaftliche oder begrenzt auch kommerzielle Zwecke in einer zentral verwalteten Ablage gespeichert werden. Mit einer solchen Datenbank im Sinne eines Repositorys und einer ausgereiften Versionsverwaltung gelänge die revisionssichere Administration und Bearbeitung der hinterlegten Modelle durch verschiedene autorisierte NutzerInnen. Mithilfe von Geheimhaltungsstufen bzw. Zugriffsrechten wäre sicherzustellen, dass sensible Daten, welche u. a. sicherheitskritische Lieferketten preisgeben, nicht öffentlich einsehbar sind. Auf einer solchen Plattform, sozusagen dem Kompetenzzentrum für den/die digitalen ökonomischen Zwilling(e), könnte auch die Evolution der Rahmenwerke oder ein kooperativer Informationsaustausch geschehen. Diese Datenbank bzw. die damit einhergehende Forschungsplattform sollten gegebenenfalls kontrolliert bzw. an eine unabhängige Organisation wie beispielsweise die Max-Planck-Gesellschaft angeschlossen werden.

Abschließend lässt sich festhalten, dass die Möglichkeiten und der Erkenntnisgewinn einer solchen Anwendung immens wären. Immens ist jedoch auch der damit verbundene Aufwand und die benötigten IT-Ressourcen wie etwa ein Zugang zum High Performance Computing. Ferner ist zu betonen, dass dieses Konzept vom digitalen Zwilling der Ökonomie keinesfalls dazu gedacht ist, planwirtschaftliche Strukturen zu befördern. Mit diesen Methoden soll vielmehr erreicht werden, dass ein stärkeres Verständnis unserer globalisierten Lebensrealität entsteht, um mit dem daraus resultierenden Instrument wirtschaftspolitische Initiativen detailliert untersuchen sowie erfolgreich implementieren zu können. Zudem sollen mit dessen Unterstützung vielfältige Optimierungspotentiale bzw. Synergieeffekte gehoben werden, welche eine ressourcenschonende und damit nachhaltigere globale Ökonomie erlauben. Auch könnten durch dessen Anwendung globale Wertschöpfungsketten für Behörden transparenter gemacht werden und diese dabei unterstützen, etwaigen Gesetzesverstößen (z. B. die illegale Verwendung von Tropenholz oder die Verletzung von Arbeitnehmerrechten) nachzugehen. In Zeiten existenzieller Krisen könnten zeitnah bedeutende Lieferketten analysiert und deren Betrieb durch zielgerichtete Maßnahmen aufrechterhalten werden. Ganz im Sinne der Sozialen Marktwirtschaft gilt es, einen Ordnungsrahmen zu schaffen bzw. stetig zu optimieren, der individuellen Wohlstand und globalen Fortschritt in einer liberalen Gesellschaft befördert. Das Eingangszitat von Einstein sollte deshalb bereits darauf hindeuten, dass es wenig sinnvoll erscheint, Dinge so sehr zu versimpeln, bis diese ihren Wahrheitswert verloren haben. So möge eine Erkenntnis sein, dass die Komplexität der Ökonomie nach einer tieferen Analyse und nicht nach realitätsferner Vereinfachung verlangt, um gute wirtschaftspolitische Handlungsoptionen bzw. -empfehlungen zu konzipieren. Mit einem solchen makroökonomischen Instrument, das in detaillierter und realitätsnaher Weise auf der mikroökonomischen Ebene ansetzt, könnten u. a. die grüne Transformation der globalen Wirtschaft oder die Verwirklichung einer Digital Circular Economy (vgl. Wilts und Berg 2017) geplant werden. Der Mensch wird durch die Anwendung dieser Methoden, welche auf die individuelle Perspektive bzw. individuelles Handeln setzen, wieder in das Zentrum des wirtschaftlichen Geschehens gerückt, womit die Humanität in der Ökonomie (Pobuda 2017) befördert würde.

Literaturverzeichnis

Binswanger, Mathias (2016): Kümmert euch wieder um die Wirklichkeit! DIE ZEIT, URL: https://www.zeit.de/2016/47/oekonomie-geldpolitik-gleichgewicht (Stand: 15.02.2020).

Duflo, Esther; Abhijit Banerjee (Hrsg.) (2017): Handbook of Field Experiments. Amsterdam: North Holland.

Fischer, Peter; Peter Hofer (2011): Lexikon der Informatik, 15. Auflage. Heidelberg: Springer.

Gahlen, Bernhard (1972): Der Informationsgehalt der neoklassischen Wachstumstheorie für die Wirtschaftspolitik. Tübingen: J.C.B. Mohr.

Gilbert, G. Nigel (2020): Agent-Based Models, 2. Auflage. Quantitative applications in the social sciences 153. Thousand Oaks, CA: SAGE.

Hamill, Lynne; G. Nigel Gilbert (2016): Agent-Based Modelling in Economics. Chichester, West Sussex: John Wiley & Sons.

Kahneman, Daniel; Amos Tversky (1979): Prospect Theory: An Analysis of Decision Under Risk. Econometrica, 47, 2, S. 263-292.

Lucas, Robert E. (1976): Econometric Policy Evaluation, A Critique. Carnegie-Rochester Conference Series on Public Policy 1, S. 19-46.

Mankiw, N. Gregory (2006): The Macroeconomist as Scientist and Engineer. Cambridge, MA: National Bureau of Economic Research.

Pobuda, Patrick (2017): Humanity in Economics. München: Studylab.

Railsback, Steven F.; Volker Grimm (2019): Agent-Based and Individual-Based Modeling: A Practical Introduction, 2. Auflage. Princeton, NJ: Princeton University Press.

Romer, Paul (2016): The Trouble with Macroeconomics, URL: https://paulromer.net/the-trouble-with-macro/WP-Trouble.pdf (Stand: 15.02.2020).

Westerhoff, Frank (2008): The Use of Agent-based Financial Market Models to Test the Effectiveness of Regulatory Policies. Jahrbücher für Nationalökonomie und Statistik 228, S. 195–227.

Wilensky , Uri (1999): NetLogo. Center for Connected Learning and Computer-Based Modeling, Northwestern University. Evanston, IL.

Wilts, Henning; Holger Berg (2017): The Digital Circular Economy: Can the Digital Transformation Pave the Way for Resource-efficient Materials Cycles? (In Brief 04/2017). Wuppertal: Wuppertal Institut für Klima, Umwelt, Energie gGmbH.

[...]

10 von 10 Seiten

Details

Titel
Der digitale Zwilling der Ökonomie
Untertitel
Lakonische Kapitalismuskritik Teil IV
Hochschule
Westfälische Wilhelms-Universität Münster
Autor
Jahr
2020
Seiten
10
Katalognummer
V539301
ISBN (Buch)
9783346154262
Sprache
Deutsch
Schlagworte
Makroökonomie, Wirtschaftspolitik, Economic Architecture, Agentenbasierte Modellierung
Arbeit zitieren
Patrick Pobuda (Autor), 2020, Der digitale Zwilling der Ökonomie, München, GRIN Verlag, https://www.grin.com/document/539301

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Der digitale Zwilling der Ökonomie



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden