Der Einfluss von Big Data auf die Produktion von Wissen


Hausarbeit, 2018
21 Seiten, Note: 1,0

Leseprobe

Inhaltsverzeichnis

1. Einleitung

2. Theoretische Grundlagen
2.1 Historizismus nach Thomas S. Kuhn
2.2 Positivismus

3. Was ist Big Data?

4. Der Einfluss von Big Data auf die Produktion von Wissen
4.1 Das Big-Data-Zeitalter als neues Paradigma der Wissenschaft
4.2 „Digitaler Positivismus“ und das „Ende der Theorie“
4.3 Datengetriebene Wissenschaft (data-driven science)

5. Fazit

Literaturverzeichnis

1. Einleitung

Wir leben heute im Zeitalter von Big Data – einem Zeitalter, in dem immer größere Mengen unterschiedlich strukturierter Daten mit enormer Geschwindigkeit generiert, gespeichert und analysiert werden können. Ermöglicht wird dies durch neu entwickelte Methoden und Technologien, die mit dem Begriff Big Data erfasst werden (Horvath 2013, S. 1). Hierbei handelt es sich um eine relativ neue Entwicklung. Noch vor zehn Jahren war Big Data kaum ein Thema (Kitchin 2014b, S. 67). Doch schon fünf Jahre später war der Begriff in aller Munde und einige Fachleute sprachen bereits von einer „Revolution, die unser Leben verändern wird“ (Mayer-Schönberger/Cukier 2013). Seitdem häufen sich die Stimmen, die sagen, dass Big Data unser Leben in vielen Bereichen verändert, sei es im Bereich der Wirtschaft, der Politik oder der Wissenschaft. Die Big-Data-Revolution wirft eine Reihe wichtiger Fragen auf, die weit über Themen wie Datenschutz oder Überwachung hinausgehen (vgl. boyd/Crawford 2012). So steht aktuell die These im Raum, dass Big Data die Produktion von Wissen in unserer Gesellschaft grundlegend verändert. Wie diese Veränderungen im Einzelnen aussehen, ist Gegenstand einer intensiven Debatte (vgl. Anderson 2008; Hey et al. 2009; Kitchin 2014b; Mayer-Schönberger/Cukier 2013; Mazzocchi 2015; Püschel 2014). Daher wird in der vorliegenden Arbeit folgende Frage untersucht: Wie wirkt sich Big Data auf die Produktion von Wissen in unserer Gesellschaft aus?

Vor allem ein historizistischer Ansatz in der Tradition Thomas Kuhns und positivistische Ansätze haben die Debatte um den Einfluss von Big Data auf die Produktion von Wissen geprägt. Dementsprechend scheint es ratsam, zunächst den Kuhnschen Historizismus und die Denkrichtung des Positivismus kurz vorzustellen. Anschließend gilt es, den Begriff Big Data näher zu bestimmen. Nachdem die Grundlagen der Arbeit geklärt sind, kann anhand des empirischen Forschungsstands untersucht werden, wie sich Big Data auf die Produktion von Wissen in unserer Gesellschaft auswirkt. Dabei richtet sich das Augenmerk zuerst auf den historizistischen Ansatz des US-amerikanischen Informatikers Jim Gray, der das Big-Data-Zeitalter als ein neues Paradigma der Wissenschaft beschreibt (vgl. Bell et al. 2009; Hey et al. 2009). Der zweite Teil der Analyse befasst sich mit positivistischen Ansätzen und der These, dass Daten für sich selbst sprechen können frei von Theorie (vgl. Anderson 2008; Mayer-Schönberger/Cukier 2013; Mazzocchi 2015; Püschel 2014). Danach wird die Vision einer datengetriebenen Wissenschaft näher beleuchtet (vgl. Kitchin 2014b, S. 137-147). Im abschließenden Fazit werden die Ergebnisse der Arbeit zusammengefasst und ein Anreiz für zukünftige Arbeiten gegeben.

2. Theoretische Grundlagen

2.1 Historizismus nach Thomas S. Kuhn

Historizismus bezeichnet eine Strömung in der Wissenschaftstheorie, welche entscheidend durch den US-amerikanischen Physiker, Wissenschaftshistoriker und Wissenschaftsphilosophen Thomas S. Kuhn (1922 – 1996) geprägt wurde (Niewöhner 2012, S. 52). Kuhns Theorie der Wissenschaftsentwicklung zeichnet sich durch eine historische Argumentationslinie aus. Sie unterscheidet sich damit von den beiden dominanten vor-Kuhnschen Richtungen der Wissenschaftstheorie, dem logischen Positivismus und dem kritischen Rationalismus, die eine logische Argumentationslinie aufweisen (Niewöhner 2012, S. 61). Kuhn entwickelte ein allgemeines Phasenmodell der Wissenschaftsentwicklung, wobei er zwischen normaler Wissenschaft und wissenschaftlichen Revolutionen unterscheidet (Hoyningen-Huene 1989, S. 37). Mit normaler Wissenschaft ist der wissenschaftliche Arbeitsalltag gemeint, „der im Wesentlichen aus dem routinisierten Lösen von Rätseln und Problemen besteht“ (Niewöhner 2012, S. 61). Phasen normaler Wissenschaft sind dadurch gekennzeichnet, dass in der wissenschaftlichen Gemeinschaft ein Konsens in Bezug auf bestimmte theoretische Grundannahmen herrscht (Kuhn 1962/2017, S. 25). Anders ausgedrückt: die Forscher bewegen sich innerhalb eines anerkannten theoretischen Rahmens (Hoyningen-Huene 1989, S. 166; Niewöhner 2012, S. 61). Zur Bezeichnung dieses Rahmens hat Kuhn in seinen frühen Arbeiten den Begriff Paradigma verwendet,1 „der wie kein anderer Begriff mit dem Kuhnschen Werk verknüpft ist und durch dieses eine außergewöhnliche Verbreitung und Popularisierung erfahren hat“ (Rose 2004, S. 25). Kuhn geht davon aus, dass zwischen einzelnen Paradigmen Inkommensurabilität2 besteht. Seiner Ansicht nach „üben die Befürworter konkurrierender Paradigmata ihre Tätigkeit in verschiedenen Welten aus“ (Kuhn 1962/2017, S. 161). Wie Kuhn in seinem 1962 erschienenen Hauptwerk The Structure of Scientific Revolutions ausführt, kann ein etabliertes Paradigma im Rahmen einer sogenannten wissenschaftlichen Revolution durch ein neues Paradigma abgelöst werden. Er argumentiert, dass Forscher in einer Phase normaler Wissenschaft unweigerlich mit wesentlichen Anomalien konfrontiert werden, die mehr oder weniger tiefgreifende Änderungen auf der Theorieebene erzwingen (Hoyningen-Huene 1989, S. 218-223). Kuhn nennt diese Episoden der Wissenschaftsentwicklung wissenschaftliche Revolutionen, wobei die Revolutionen in ihrem Ausmaß erheblich variieren können (Hoyningen-Huene 1989, S. 256). Wesentliche Anomalien können sich auf zwei verschiedene Arten auswirken (Hoyningen-Huene 1989, S. 222f.). Zum einen können sie zu unerwarteten Entdeckungen neuer Phänomene oder Entitäten führen, welche durch die in der wissenschaftlichen Gemeinschaft allgemein anerkannten Theorien nicht antizipiert werden konnten. In diesem Fall werden die Theorien entsprechend modifiziert (Hoyningen-Huene 1989, S. 223). Zum anderen können wesentliche Anomalien aber auch größere Theorie-Revolutionen auslösen, „bei denen eine Theorie nicht nur modifiziert, sondern umgestossen und durch eine neue Theorie ersetzt wird“ (Hoyningen-Huene 1989, S. 225). Nach Kuhns Inkommensurabilitätsthese ändern sich mit einer wissenschaftlichen Revolution die jeweilige Erscheinungswelt wie auch die Begriffe, mit denen die Welt beschrieben wird (Hoyningen-Huene 1989, S. 256) – oder um es mit Kuhns Worten zu sagen: „Wenn auch die Welt mit dem Wechsel eines Paradigmas nicht wechselt, so arbeitet doch der Wissenschaftler danach in einer anderen Welt“ (Kuhn 1962/2017, S. 133).

2.2 Positivismus

Positivismus heißt eine Denkrichtung in der Philosophie und Wissenschaft, die ihren Namen dem französischen Mathematiker, Philosophen und Religionskritiker Auguste Comte (1798 – 1857) verdankt (Eisler 1910, S. 1039f.; Hess 1997, S. 8). Comte argumentierte, dass die Entwicklung der menschlichen Naturkenntnis durch das Zusammenwirken zweier Gesetze bestimmt wird: das Dreistadiengesetz und das enzyklopädische Gesetz (Comte 1994, S. XXIII-XXIV). Nach dem Comteschen Dreistadiengesetz muss jeder Zweig menschlichen Wissens, genauer gesagt jede der sechs Grundwissenschaften, drei aufeinanderfolgende Stadien durchlaufen: das theologische oder fiktive, das metaphysische oder abstrakte und das positive oder wissenschaftliche Stadium (Comte 1994, S. XXIV-XXV; Fuchs-Heinritz 1998, S. 98f.). Mit dem enzyklopädischen Gesetz entwarf Comte eine hierarchische Ordnung der Wissenschaften, die widerspiegelt, in welcher Reihenfolge die Wissenschaften die drei Stadien durchlaufen. Am Anfang steht die Mathematik als allgemeinste und abstrakteste Wissenschaft, gefolgt von Astronomie, Physik, Chemie und Biologie. Den krönenden Abschluss bildet die neu zu begründende „soziale Physik“ oder Soziologie als subjektivste und konkreteste Wissenschaft (Comte 1994, S. XXIX; Fuchs-Heinritz 1998, S. 146). Laut Comte ist jedes der drei zu durchlaufenden Stadien durch eine bestimmte Philosophie gekennzeichnet (Fuchs-Heinritz 1998, S. 98f.). Im theologischen Stadium sucht der menschliche Geist nach den Ursachen und der Erzeugungsweise der ihn umgebenden Phänomene – er sucht nach der absoluten Erkenntnis (Comte 1994, S. 6). Als Erklärung dienen dabei übernatürliche Kräfte und Wesen (Eisler 1910, S. 1040). Der Glaube an übernatürliche Wesen hinter den Phänomenen „setzt die Menschen zu Beginn ihrer Entwicklung instand, einen (wenn auch fiktiven) Weg aus dem noch durch keine Theorie geordneten Chaos der Wahrnehmungen zu finden“ (Fuchs-Heinritz 1998, S. 101). Auch im metaphysischen Stadium strebt der menschliche Geist nach absoluter Erkenntnis. Statt übernatürlicher Kräfte werden nun weltlich-abstrakte Kräfte zur Erklärung herangezogen, die stufenweise einer einzigen allgemeinen Wesenheit untergeordnet werden: der Natur (Comte 1994, S. 11-13; Fuchs-Heinritz 1998, S. 110). Im positiven Stadium „verzichtet der menschliche Geist auf überzogene Erkenntnisabsichten“ (Fuchs-Heinritz 1998, S. 117) und befasst sich ausschließlich mit intersubjektiv nachvollziehbaren Beobachtungen. Comte sieht darin die einzig mögliche Grundlage für Erkenntnis. Die positive Philosophie fußt auf dem Grundsatz, dass Behauptungen nur dann sinnvoll sind, wenn sie auf beobachtbare, „positive“ Tatsachen zurückgeführt werden können (Comte 1994, S. 16). Die Erklärung der Phänomene beschränkt sich nun auf die Erforschung der Gesetzmäßigkeiten, denen die Phänomene unterliegen und anhand derer ihr Verhalten vorausgesagt werden kann (Comte 1994, S. 16f.; Fuchs-Heinritz 1998, S. 117). Mit seinen Ausführungen über die positive Philosophie etablierte Comte den Begriff Positivismus als Bezeichnung für eine ganze philosophische Richtung, die weit älter ist als die Comtesche Philosophie und unterschiedliche positivistische Konzepte umfasst (Comte 1994, S. XV). So wurde der Positivismus später vor allem mit stärker empiristischen Positionen assoziiert (Fuchs-Heinritz 1998, S. 314f.), während Comte stets betont hatte, dass Beobachtungen nur mit Hilfe von Theorie möglich seien (Fuchs-Heinritz 1998, S. 96). Insgesamt lässt sich der Positivismus grob anhand folgender Merkmale charakterisieren: erstens, die Suche nach Gesetzmäßigkeiten statt absoluten Erkenntnissen; zweitens, die Auffassung, dass nur beobachtbare und somit verifizierbare Objekte für wissenschaftliche Untersuchungen in Frage kommen; drittens, die Gleichsetzung von Wissen „with the experience of factual regularity“ (Morrison 2006, S. 34); viertens, die Betrachtung der Naturwissenschaften als ein Vorbild an Gewissheit und Genauigkeit; fünftens, die Überzeugung, dass Fortschritt und soziale Reform von einer Orientierung an Fakten abhängen (vgl. Morrison 2006, S. 34). Dieses positivistische Denken feierte einen bemerkenswerten Siegeszug in der zweiten Hälfte des 19. Jahrhunderts (vgl. Fuchs-Heinritz 1998, S. 314; Morrison 2006, S. 32-34). Das 20. Jahrhundert brachte dann neue in der Tradition des Positivismus stehende Denkrichtungen hervor, welche jedoch nicht mit dem Positivismus des 19. Jahrhunderts zu verwechseln sind (Korte 2017, S. 61). Zu nennen ist hier insbesondere der logische Positivismus oder Neopositivismus, der besagt, dass Aussagen nur dann sinnvoll sind, wenn sie „auf Beobachtungen rückführbar und durch einen rationalen Prozess auf ihren Wahrheitsgehalt hin überprüfbar sind“ (Niewöhner 2012, S. 55). Im Gegensatz zu Comte gehen die Vertreter des logischen Positivismus von einer klaren Trennung zwischen Beobachtung und Theorie aus (Hacking 1983, S. 5). Empirismus und Rationalismus werden zur Grundlage für Erkenntnis und Wissenschaft (Niewöhner 2012, S. 55). Nicht zuletzt dank dieser Weiterentwicklung taucht der Geist des Positivismus auch im 21. Jahrhundert noch in diversen Bereichen auf (vgl. Fuchs 2017, S. 38-40; Kitchin 2014b, S. 139f.; Mosco 2014, S. 196-205; Niewöhner 2012, S. 57; Püschel 2014).

3. Was ist Big Data?

Seit einigen Jahren ist der Begriff Big Data in aller Munde. Eine allgemein akzeptierte Definition sucht man jedoch vergeblich (Kitchin 2014b, S. 67f.). Grob zusammenfassend gesagt, bezeichnet Big Data „ein Bündel neu entwickelter Methoden und Technologien, die die Erfassung, Speicherung und Analyse eines großen und beliebig erweiterbaren Volumens unterschiedlich strukturierter Daten ermöglicht“ (Horvath 2013, S. 1). Dieses Bündel neu entwickelter Methoden und Technologien zeichnet sich in erster Linie durch die „drei Vs“ aus: Datenmenge (volume), Geschwindigkeit (velocity) und unterschiedliche Beschaffenheit (variety) (Horvath 2013, S. 1; Kitchin 2014b, S. 68). In der Prä-Big-Data-Ära waren Datenbanken stets auf zwei der „drei Vs“ beschränkt: volume und velocity, volume und variety oder velocity und variety. Erst mit verbesserter Rechenleistung, neuem Datenbankendesign und verteilter Datenhaltung gelang es, alle „drei Vs“ gleichzeitig zu erreichen, also große Datenmengen mit unterschiedlicher Beschaffenheit sehr schnell – in vielen Fällen in Echtzeit – zu generieren und zu analysieren. Neben den „drei Vs“ weist Big Data noch vier weitere zentrale Charakteristika auf: Vollständigkeit (exhaustivity), Auflösung und Indexikalität (resolution and indexicality), Relationalität (relationality) sowie Flexibilität (flexibility) und Skalierbarkeit (scalability) (Kitchin 2014b, S. 68). Vollständigkeit meint, dass Big-Data-Projekte danach streben, ganze Grundgesamtheiten zu erfassen oder zumindest deutlich größere Anteile der Grundgesamtheit als traditionelle Small-Data-Studien (Kitchin 2014b, S. 72f.). Gleichzeitig wird die Datenauflösung immer höher und die Identifizierung von Menschen, Produkten, Transaktionen und Gebieten dank einzigartiger Kennungen „more indexical in nature“ (Kitchin 2014b, S. 74). Ein weiteres zentrales Merkmal ist der hohe Grad an Relationalität, was bedeutet, dass unterschiedliche Datensätze zusammengeführt und anschließend sowohl einzeln als auch gemeinsam analysiert werden können (Kitchin 2014b, S. 74f.). Außerdem bestechen Big-Data-Systeme durch eine hohe Flexibilität und Skalierbarkeit, was ihnen ermöglicht, neue Felder leicht hinzuzufügen und schnell zu wachsen, ungeachtet der Datenmenge (Kitchin 2014b, S. 78). Diese sieben Charakteristika – Datenmenge, Geschwindigkeit, unterschiedliche Beschaffenheit, Vollständigkeit, Auflösung/Indexikalität, Relationalität und Flexibilität/Skalierbarkeit – werfen eine Reihe wichtiger Fragen auf, mit denen wir uns im Big-Data-Zeitalter auseinandersetzen müssen (vgl. boyd/Crawford 2012, S. 663; Kitchin 2014b, S. 79). So stellt sich nicht zuletzt folgende Frage: „How will such data change the epistemology of science across all domains (arts and humanities, social sciences, physical and life sciences, engineering?“ (Kitchin 2014b, S. 79).

4. Der Einfluss von Big Data auf die Produktion von Wissen

Um zu ergründen, wie sich Big Data auf die Produktion von Wissen in unserer Gesellschaft auswirkt, wird im Folgenden zunächst untersucht, warum das Big-Data-Zeitalter als ein neues Paradigma der Wissenschaft beschrieben wird. Anschließend richtet sich das Augenmerk auf positivistische Ansätze und die ihnen zugrundeliegenden Ideen. Der letzte Teil der Analyse befasst sich schließlich mit der Vision einer datengetriebenen Wissenschaft, die sich sowohl von positivistischen Visionen als auch von der traditionellen wissenschaftlichen Methode unterscheidet.

4.1 Das Big-Data-Zeitalter als neues Paradigma der Wissenschaft

Am 11. Januar 2007 hielt der US-amerikanische Informatiker Jim Gray eine vielbeachtete Rede vor dem Computer Science and Telecommunications Board (CTSB) des National Research Council (NRC) der USA (Bell 2009, S. XIII). Darin beschrieb er das Aufkommen eines neuen, vierten Paradigmas der Wissenschaft – einer datenintensiven oder explorativen Wissenschaft (eScience), „that enables challenges on previously unimaginable scales to be tackled“ (Bell et al. 2009, S. 1298). Gray bediente sich Thomas Kuhns Konzept des Paradigmas, um die Entwicklung der Wissenschaft anhand von vier Paradigmen nachzuzeichnen (siehe Abbildung 1).

Abbildung 1: Die vier Paradigmen der Wissenschaft nach Jim Gray

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Hey et al. 2009, S. XVIII.

Der Kuhnschen Theorie zufolge werden Paradigmenwechsel durch wesentliche Anomalien ausgelöst, die im normalwissenschaftlichen Arbeitsalltag auftreten und das bestehende Paradigma in Frage stellen. Gray hingegen argumentiert, dass die Entwicklung neuer Methoden und Technologien zum Wechsel eines Paradigmas führt (Kitchin 2014a, S. 3). Am Anfang steht das Paradigma der experimentellen Wissenschaft, das die Ära vor der Renaissance prägt. Während dieser Zeit dreht sich die Wissenschaft um das Beschreiben natürlicher Phänomene und sie ist durch Empirismus gekennzeichnet. Darauf folgt die theoretische Wissenschaft, welche sich der Bildung von Modellen und der Gewinnung allgemeiner Aussagen zuwendet (Kitchin 2014b, S. 129). Gray nennt in diesem Zusammenhang die Keplerschen und Newtonschen Gesetze sowie die Maxwell-Gleichungen als Beispiele der theoretischen Wissenschaft (Hey et al. 2009, S. XVIII). Mit dem Beginn des Informationszeitalters und der Verbreitung des Computers wird das Paradigma der theoretischen Wissenschaft schließlich durch eine rechnergestützte Wissenschaft abgelöst. Dieses dritte Paradigma der Wissenschaft zeichnet sich durch die Verwendung von Computersimulationen aus (Kitchin 2014b, S. 129). Computersimulationen sind in den letzten Jahrzehnten zu einem wichtigen Werkzeug der Wissenschaft geworden. Sie ermöglichen die Untersuchung komplexer Fragestellungen und Phänomene, welche sich Theorie und Experiment entziehen, wie etwa die Evolution des Universums oder der Klimawandel (Bell et al. 2009, S. 1297). Dabei generieren die Computersimulationen jedoch immer größere Datenmengen. Das gleiche gilt auch für wissenschaftliche Experimente. Die wachsende Datenflut hat in der jüngeren Vergangenheit die Entwicklung neuer Methoden und Technologien angetrieben (Bell et al. 2009, S. 1297; Hey et al. 2009, S. XIX). Dazu zählen beispielsweise neue Typen von Computerclustern, die weniger für die Datenverarbeitung optimiert sind, sondern eher für Datenbewegung und -analyse (Bell et al. 2009, S. 1297). Diese unter dem Begriff Big Data subsumierten Methoden und Technologien unterscheiden sich aus Grays Sicht fundamental von früheren Methoden und Technologien, sodass sie das Aufkommen eines neuen, vierten Paradigmas der Wissenschaft repräsentieren:

„The world of science has changed, and there is no question about this. The new model is for the data to be captured by instruments or generated by simulations before being processed by software and for the resulting information or knowledge to be stored in computers. Scientists only get to look at their data fairly late in this pipeline. The techniques and technologies for such data-intensive science are so different that it is worth distinguishing data-intensive science from computational science as a new, fourth paradigm for scientific exploration“ (Hey et al. 2009, S. XIX).

[...]


1 Zur Entwicklung des Paradigmenbegriffs in der Kuhnschen Theorie siehe: Hoyningen-Huene 1989, S. 141-145.

2 Zur Entwicklung des Inkommensurabilitätsbegriffs in der Kuhnschen Theorie siehe: Hoyningen-Huene 1989, S. 203-212.

Ende der Leseprobe aus 21 Seiten

Details

Titel
Der Einfluss von Big Data auf die Produktion von Wissen
Hochschule
Universität Trier
Veranstaltung
Media, Science and Technology Studies
Note
1,0
Autor
Jahr
2018
Seiten
21
Katalognummer
V505840
ISBN (eBook)
9783346051912
Sprache
Deutsch
Schlagworte
Big Data, Wissen, Thomas Kuhn, Historizismus, Positivismus, Datengetriebene Wissenschaft
Arbeit zitieren
B.A. Christoph Germann (Autor), 2018, Der Einfluss von Big Data auf die Produktion von Wissen, München, GRIN Verlag, https://www.grin.com/document/505840

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Der Einfluss von Big Data auf die Produktion von Wissen


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden