Daten für alle. Chancen und Risiken einer Daten-Sharing-Pflicht aus wettbewerbsökonomischer Perspektive


Masterarbeit, 2019
81 Seiten, Note: 1,7

Leseprobe

I. Inhaltsverzeichnis

II. Abkürzungsverzeichnis

1. Einleitung

2. Definition, ökonomische Klassifizierung und Strukturierung von Daten
2.1 Daten als Gut
2.2 Personenbezogene Daten
2.3 Nicht-personenbezogene Daten
2.4 Maschinengenerierte Daten
2.5 Fazit

3. Wertschöpfungs- & Wettbewerbsfaktor Daten
3.1 Ökonomisches Potenzial von Daten als Wertschöpfungsfaktor
3.1.1 Daten und ihre Wertschöpfungskette
3.1.2 Datengetriebene Unternehmen und Geschäftsmodelle: Ein Überblick
3.2 Daten als Wettbewerbsfaktor
3.2.1 Skaleneffekte
3.2.2 Netzwerkeffekte
3.2.3 Feedbackeffekte
3.3 Diskussion - Daten als wesentliche Einrichtung - Essential Facility -

4. Die Daten-Sharing-Pflicht als neues Regulierungsinstrument
4.1 Aktuelle Diskussion
4.2 Theoretische Ansätze
4.2.1 Prüfer und Schottmüller
4.2.2 Mayer-Schönberger und Ramge
4.3 Chancen, Risiken und Herausforderungen einer Daten-Sharing-Pflicht

5. Zusammenfassung

6. Literaturverzeichnis

II. Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1. Einleitung

Am 3. Juni 2019 ist in den Vereinigten Staaten von Amerika bekannt geworden, dass die Federal Trade Commission (FTC) und das U.S.-Justizministerium ihre Zuständigkeiten im Rahmen ihrer kartellrechtlichen Aufsicht aufgeteilt haben (vgl. New York Times, 2019). So wird berichtet, dass die FTC nun die Zuständigkeiten für Amazon und Facebook übernimmt, während das US-Justizministerium zukünftig für Google und Apple zuständig ist. Die New York Times (2019) berichtete zudem, dass die durchgeführte Kompetenzverteilung noch nicht bedeutet, dass entsprechende Untersuchungsverfahren eingeleitet worden sind. Das Wall Street Journal (2019) schreibt allerdings, dass das U.S.-Justizministerium bereits eine kartellrechtliche Untersuchung gegen Alphabet (Google) vorbereitet. Darüber hinaus wurde bekannt, dass die Demokraten im US-Kongress die Marktmacht der großen Technologiekonzerne im Rahmen eines wettbewerbswidrigen Verhaltens ebenfalls untersuchen wollen (vgl. The Washington Post, 2019). Die Nachrichten sorgten bei Facebook- und Alphabet-Aktien kurzfristig für erhebliche Kurseinbrüche (vgl. Boerse.ARD, 2019).

Während in den Vereinigten Staaten die Diskussionen rund um die Marktmacht der großen Technologieunternehmen sichtbar zunehmen, ist dies in Europa bereits seit einiger Zeit der Fall. So leitete die Europäische Kommission bereits mehrere Untersuchungsverfahren gegen Alphabet ein, die am Ende zu Höchststrafen aufgrund des wettbewerbswidrigen Verhaltens führten (vgl. Europäische Kommission, 2017a; Europäische Kommission, 2018). Gleichzeitig wird intensiv darüber diskutiert, inwieweit zusätzliche Anpassungen des Wettbewerbsrechts notwendig sind, um den Eigenschaften und Herausforderungen digitaler Märkte gerecht zu werden (vgl. Bundeskartellamt, 2017).

Ein Vorschlag innerhalb dieser Diskussionen stammt von Andrea Nahles (vgl. Sozialdemokratische Partei Deutschland, 2019). Die ehemalige SPD-Vorsitzende ist davon überzeugt, dass die Dominanz von Digitalunternehmen wie Google, Facebook und Amazon im Wesentlichen in den Daten liegt, die sie aufgrund ihrer Online-Plattformen sammeln und analysieren können. Sie schlägt daher ein „Daten-für-Alle-Gesetz“ vor, wodurch marktdominante Digitalunternehmen dazu verpflichtet werden sollen, ihre gesammelten Daten anonymisiert und je nach Anwendungsbereich frei zur Verfügung zu stellen.

Diese Ausgangssituation vorangestellt, soll das Ziel dieser Arbeit darin bestehen, ein Regulierungsinstrument wie die Daten-Sharing-Pflicht hinsichtlich Chancen, Risiken und Herausforderungen aus wettbewerbsökonomischer Perspektive zu analysieren.

Dafür ist es zunächst sinnvoll, wenn der Leser ein grundlegendes Verständnis dafür entwickelt, wie Daten als Gut genauer zu definieren, klassifizieren und zu strukturieren sind. Im Anschluss daran werden Daten schließlich als Wertschöpfungs- und Wettbewerbsfaktor behandelt. Dabei werden Daten als Inputfaktor zunächst in den Kontext der Wertschöpfung sowie in das Umfeld datengetriebener Geschäftsmodelle eingeordnet und analysiert. Hierzu wird auch ein Blick auf die Wertschöpfungskette von Daten eine wichtige Rolle einnehmen. Anschließend erfolgt die Analyse von Daten als Wettbewerbsfaktor. So werden drei Effekte von Daten im Rahmen datengetriebener Geschäftsmodelle vorgestellt, die einerseits einen exklusiven Zugang zu Daten begünstigen können sowie andererseits als Folge eine dauerhafte Marktmachtstellung unterstützen. Schließlich wird diskutiert, inwiefern bestimmte Daten oder Datentypen als eine „Essential Facility“ identifiziert werden können und daher für eine sektorspezifische ex-ante Regulierung in Frage kommen könnten.

Vor dem Hintergrund dieser Grundlagen wird im letzten Kapitel konkret das Regulierungsinstrument einer Daten-Sharing-Pflicht aus wettbewerbsökonomischer Perspektive untersucht. Hierzu werden neben der Idee der ehemaligen SPD-Vorsitzenden zwei weitere Ansätze vorgestellt und hinterfragt, die sich bereits ebenfalls mit der Idee einer Daten-Sharing-Pflicht auseinandergesetzt haben. Den Abschluss der Arbeit bildet schließlich einerseits die Diskussion über die wesentlichen Chancen und Risiken einer Daten-Sharing-Pflicht sowie andererseits ein Ausblick über die damit verbundenen Herausforderungen.

2. Definition, ökonomische Klassifizierung und Strukturierung von Daten

Die im Jahr 2018 veröffentlichte Studie von International Data Corporation (IDC) prognostiziert, dass die aktuelle Datensphäre von weltweit insgesamt 33 Zettabyte (ZB) generierten Daten bis zum Jahr 2025 auf insgesamt 175 ZB ansteigen wird (vgl. Seagate, 2018, S.2-5).1 Zudem agieren bereits heute mehr als fünf Milliarden Verbraucher tagtäglich mit Daten. Diese Zahl wird sich nach Einschätzungen von IDC bis zum Jahr 2025 auf insgesamt sechs Milliarden erhöhen, was ca. 75 Prozent der Weltbevölkerung entspricht. Darüber hinaus wird jede Person, die im Jahr 2025 Zugang zu Internet hat, mindestens alle 18 Sekunden mit Daten interagieren. Jene Interaktion wird durch die milliardenhohe Anzahl von Internet of Things (IoT)-Geräten ermöglicht, die weltweit miteinander vernetzt sein werden.

Im Rahmen der fortschreitenden Digitalisierung wurden daher Daten schon als das „Öl des 21. Jahrhunderts“ oder „essentieller Rohstoff für die digitale Transformation“ bezeichnet (vgl. Europäische Kommission, 2013; Bundeskanzlerin, 2016). Ein erster Blick auf die zunehmende Datenvielfalt, d.h., unterschiedliche Datenarten, Entstehungsquellen und Verwendungsmöglichkeiten offenbart jedoch, dass eine grundlegende und allgemeine Begriffsdefinition für Daten alles andere als simpel ist (vgl. BITKOM, 2012).

Um aber letztlich Chancen und Risiken einer Daten-Sharing-Pflicht aus wettbewerbsökonomischer Perspektive überhaupt diskutieren zu können, ist es zuvor zwingend notwendig Daten als Wirtschaftsgut genauer zu definieren, klassifizieren und strukturieren. Im Fokus der Betrachtung stehen dabei insbesondere jene Daten, die von Unternehmen gesammelt, bearbeitet und genutzt werden (d.h. personenbezogene, nicht-personenbezogene und maschinengenerierte Daten). Im Rahmen der Strukturierung werden zudem erste wichtige Implikationen sowie rechtliche als auch technische Bedingungen angeführt, die für das Instrument einer Daten-Sharing-Pflicht eine essenzielle Grundvoraussetzung darstellen.

2.1 Daten als Gut

In den Wirtschaftswissenschaften werden „klassische“ Güter einer Volkswirtschaft zweckmäßig nach zwei Kriterien eingeteilt: Hierbei handelt es sich zum einen um das Kriterium der „Ausschließbarkeit“ sowie zum anderen um die „Konkurrenz“ im Rahmen der Güternutzung (vgl. Mankiw und Taylor, 2012, S.278f.). Ein Wirtschaftsgut ist beispielsweise dann ausschließbar, wenn ein Akteur vom Konsum des Gutes ausgeschlossen werden kann. Umgekehrt ist eine Nicht-Ausschließbarkeit dann gegeben, wenn der Konsum des Gutes nicht verhindert werden kann. Ist ein Wirtschaftsgut durch die Nutzung einer Person erschöpfbar und schließt somit dessen Nutzung durch andere Personen aus, so ist das Wirtschaftsgut als rival zu bezeichnen. Nicht-Rivalität hingegen besteht dann, wenn das Gut von mehreren Akteuren gleichzeitig konsumiert werden kann. Auf der Grundlage dieser Kriterien unterscheiden Ökonomen zwischen vier Kategorien von Gütern (private, Club-, öffentliche, und Allmendegüter):

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Eigene Darstellung nach Mankiw und Taylor, 2012, S.279

Aufgrund der Tatsache, dass bis heute keine einheitliche Definition bezüglich des Begriffs „Daten“ existiert (vgl. Bundeskartellamt, 2017, S.2), soll eine Annäherung an die Definition und Klassifikation von Daten mithilfe der Typisierung von Informationsgütern nach Shapiro und Varian (1999) bzw. Varian (1999) erfolgen:

So bezeichnen Shapiro und Varian (1999) grundlegend alle Güter als Informationsgüter, die als Bitstrom digitalisiert werden können (z.B. Bücher, Datenbanken, Filme, Aktienkurse, Websites). Des Weiteren stellt Varian (1999) für die Klassifikation von Informationsgütern als Wirtschaftsgüter zwei wichtige Implikationen auf: So stellt er fest, dass Informationsgüter aufgrund der niedrigen Kosten für die Reproduktion von Natur aus als nicht konkurrenzfähig einzustufen sind. Bezüglich der Ausschließbarkeit konstatiert er schließlich, dass diese kein inhärentes Eigentum eines privaten oder öffentlichen Gutes selbst ist, sondern eben eine soziale Entscheidung darstellt. Diese Feststellung ist wichtig, denn sie impliziert, dass die Ausschließbarkeit nicht in der Natur des Gutes selbst liegt, sondern die Regulierung letztlich als Grundlage für die Ausschließbarkeit verantwortlich ist. Diese wiederum kann durch technisch- organisatorische Maßnahmen verstärkt werden (vgl. Varian, 1999, S.7)

Digitalisierte Informationsgüter wiederum basieren nach Clement und Schreiber (vgl. 2016, S.28) auf Daten, die - technisch betrachtet - aus Zeichen oder Signalen bestehen und nach bestimmten Regeln (Syntax) zusammengesetzt und mit Bedeutungsinhalt (Semantik) umgearbeitet sind. Wird den Daten schließlich eine Bedeutung zugewiesen, entstehen Informationen (vgl. Picot et al., 2018, S.314). Daten werden daher auch als Rohmaterial bezeichnet (vgl. Aggarwal et al., 2016) oder im weitesten Sinne einfach als jede Art von Information, die auf einem Speichermedium in digitaler Form gespeichert werden kann (vgl. Bundeskartellamt, 2017, S.2). Werden diese Informationen allerdings mit weiteren persönlichen oder aus der Umwelt stammenden Informationen vernetzt und verarbeitet, entsteht Wissen (vgl. Clement und Schreiber, 2016, S.28; Linde, 2008, S.7). Das Wissen wiederum kann dazu genutzt werden, Innovationen zu generieren und somit nachhaltige Wettbewerbsvorteile zu erzielen (vgl. North, 2011, S.35-39).

Daten und Big Data

Aufgrund der stetig wachsenden „Datenflut“ (vgl. Kapitel 2, S.5) kommt der Verarbeitung und Analyse (Smart Analytics) von riesigen Datenmengen zunehmend eine wichtige Rolle zu. In der Literatur wird hierfür oft der Begriff „Big Data“ verwendet. Wie für Daten existiert aber auch für diesen Begriff keine allgemein gültige Definition (vgl. Meier, 2018, S.5f.; De Mauro et al., 2015). Nichtsdestotrotz wird er zunehmend als der Einsatz von großen Datenmengen (Volume) mit vielfältigen Datenformaten (Variety) unter hoher Verarbeitungsgeschwindigkeit bzw. Echtzeitverarbeitung (Velocity) zur Erzeugung wirtschaftlichen Nutzens (Value), kurz 4V´s, bezeichnet (vgl. Ylijoki und Porras, 2016; BITKOM, 2015, S.13f.). Mittlerweile werden die 4V´s innerhalb der Erfassung und Verarbeitung von Daten zusätzlich um die Dimension Qualität und Korrektheit (Veracity) ergänzt (vgl. Reimer und Madigan, 2018; Chen et. al., 2014; Zikopoulos et al., 2012, S.14f.).

Vor diesem Hintergrund kann daher bezüglich der Klassifizierung von Daten als Gut folgendes festgehalten werden:

1. Aufgrund der Nicht-Rivalität im Konsum ist die Nutzung von Daten grundsätzlich durch mehrere Akteure gleichzeitig sowie nacheinander und ohne Nutzenverlust für den anderen möglich. Bei Daten besteht also im Gegensatz zu Öl keine natürliche Ressourcenknappheit, d.h. sie verbrauchen sich nicht und sind reproduzierbar (vgl. Dewenter und Lüth, 2016; Haucap und Heimeshoff, 2017, S.11).
2. Nach Varian (1999) liegt es nicht zwingend in der Natur des Gutes selbst, dass andere Unternehmen und Personen von der Nutzung ausgeschlossen werden. Die entscheidenden Ursachen hierfür sind letztendlich „soziale Entscheidungen“. Das hat zur Konsequenz, dass für bestimmte Kategorien von Daten unter Umständen (z.B. aufgrund des Datenschutzrechts oder technischer Voraussetzungen) die Ausschließbarkeit erfüllt ist und somit andere Akteure (z.B. Unternehmen oder Personen) von der Nutzung ausgeschlossen sind. Deshalb sind in der Realität bestimmte Kategorien von Daten mit typischen Eigenschaften eines Clubgutes vergleichbar. Allerdings zeigt sich auch hier, dass Nutzer häufig identische oder ähnliche Daten bei unterschiedlichen Internetdiensten, was auch als „Multihoming“ bezeichnet wird, hinterlassen. Insofern sind selbst Daten als Club-Gut nicht zwingend dauerhaft ausschließbar. Darüber hinaus existieren in der Realität offene Datensätze, die unter einer gering einschränkenden Nutzungslizenz freizugänglich, kostenlos und technisch nutzbar sind. Somit stellen sie ein nicht-ausschließbares Gut dar (z.B. Open-Data). Das heißt, in der Praxis gibt es auch Kategorien von Daten, die den Charaktereigenschaften eines öffentlichen Gutes zuzuordnen sind (vgl. Bundesministerium für Verkehr und digitale Infrastruktur, 2017, S.77)
3. Theoretisch wäre eine Klassifizierung bestimmter Kategorien von Daten als privates oder Allmendegut denkbar. So wäre es hierzu allerdings notwendig, dass die Daten entweder nur zu hohen Kosten reproduziert werden können oder der Zugriff auf die Daten z.B. aus technischen Gründen so eingeschränkt wäre, sodass nur ein Nutzer sinnvoll Zugriff hat. Aufgrund der Tatsache, dass Daten jedoch zu eher geringen Kosten erhoben, aufbewahrt und reproduziert werden (Nicht-Rivalität) ist eine solche Einordnung grundsätzlich auszuschließen.
4. Daten zeichnen sich im Vergleich zum homogenen Gut „Öl“ durch eine große Vielfalt und damit Heterogenität aus. Das heißt, Daten haben je nach Kontext und Aktualität einen unterschiedlichen Informationsgehalt, der sich nicht gegenseitig substituieren lässt. Beispielsweise lässt sich die Information des Einkommens einer Person nicht mit der Information über den Wohnort der gleichen Person substituieren (vgl. Dewenter und Lüth, 2016, S.649). Gleiches gilt für Daten mit Informationen über das Konsumverhalten einer Person zu verschiedenen Zeitpunkten. So kann eine Person in der Zwischenzeit neue Vorlieben und Interessen entwickeln. Je größer der zeitliche Abstand ist, desto schwieriger wird es, aus den vergangenheitsbezogenen Daten Informationen für den aktuellen Konsum abzuleiten. Insofern wird also deutlich, dass auch der wirtschaftliche Wert und die Bedeutung von Daten variiert. Dies impliziert wiederum, dass auch kein einheitlicher Markt für Daten existieren kann, sondern allenfalls differenzierte Teilmärkte (vgl. Schepp und Wambach, 2016, S.121)
5. Im Zeitalter der Digitalisierung bietet das Wissen, welches aus Daten generiert werden kann, beispielsweise über Märkte, Zielgruppen oder die eigene Produktivität und Performance, ein enormes wirtschaftliches und innovatives Potenzial. Daten werden verarbeitet, kommerzialisiert und das aus ihr gewonnene Wissen in neue innovative Geschäftsmodelle transformiert. Anders formuliert, die ökonomische Bedeutung von Daten bzw. ihr eigentlicher Wert resultiert aus den gewonnenen und verarbeiteten Erkenntnissen. Beispielsweise ergab die Studie von Brynjolfsson et al. (vgl. 2011), dass Unternehmen ihre Produktivität und Leistung um fünf bis sechs Prozent steigern konnten, sofern sie ihre Entscheidungsfindung auf Basis von Erkenntnissen aus Daten und Business Analytics gründen. Insofern wird nachfolgend der Fokus der Betrachtung auf personenbezogenen, nicht-personenbezogenen sowie maschinengenerierten Daten liegen. Während Erstgennannte vor allem mit den datengetriebenen Plattformgeschäftsmodellen (z.B. Facebook, Amazon und Google) in Verbindung gebracht werden, stehen Letztere insbesondere im Rahmen der digitalen Transformation der Wirtschaft z.B. hin zu Industrie 4.0 in Verbindung mit Machine Learning, Künstlicher Intelligenz (kurz: KI) und Robotik sowie einer weltweit vernetzten Wirtschaft (IoT) im Mittelpunkt.

2.2 Personenbezogene Daten

Am 27. April 2016 wurde die Verordnung (EU) 2016/679 vom Europäischen Parlament und vom Europäischen Rat beschlossen. Die Datenschutz-Grundverordnung (DS-GVO), welche am 28.05.2018 in Kraft getreten ist, definiert nicht nur den Tatbestand personenbezogener Daten natürlicher Personen, sie regelt auch deren Verarbeitung durch natürliche Personen, Unternehmen und Organisationen in der EU (vgl. Art. 1 DS-GVO). Nach Art. 4 Nr.1 DS-GVO fallen unter personenbezogene Daten alle Informationen, welche sich auf eine identifizierte oder identifizierbare lebende natürliche Person beziehen. Daraus lassen sich zwei notwendige Merkmale für das Vorhandensein eines Personenbezugs ableiten (vgl. Kühling et al., 2018, Rd. 251 – 261):

Erstens, es muss eine Beziehbarkeit zwischen der Information und einer Person vorliegen. Für das Merkmal der Beziehbarkeit kommen z.B. persönliche oder sachliche Verhältnisse in Betracht. Unter persönlichen Verhältnissen verstehen sich hierbei Informationen z.B. in Form: Name, Anschrift, Geburtsdatum, Staatsangehörigkeit, persönliche Überzeugungen oder der Beruf. Als sachliche Verhältnisse lassen sich hingegen Angaben wie z.B. über Vermögens- und Eigentumsverhältnisse oder auch Kommunikations- und Vertragsbeziehungen gegenüber Dritten und der Umwelt anführen.

Zweitens, im Rahmen des Merkmals der Identifizierbarkeit muss das Zuordnungssubjekt eine identifizierte oder identifizierbare Person sein. Hier wird zwischen der direkten und indirekten Identifizierbarkeit unterschieden (vgl. Kühling et al., 2018, Rd. 253-255). So stellt die Identifizierung einer Person z.B. mithilfe ihrer Steueridentifikationsnummer eine direkte Identifizierbarkeit dar. Schwieriger gestaltet sich hingegen die indirekte Identifizierbarkeit einer betroffenen Person. So kann eine Information als personenbezogen gelten, sofern eine Stelle (z.B. Behörde, Unternehmen) in der Lage ist, mithilfe von weiteren Zusatzinformationen eine Person zu identifizieren. Das bedeutet, dass selbst verschiedene Teilinformationen, die in Kombination die Identifizierung einer bestimmten Person ermöglichen, personenbezogene Daten darstellen.

Für den Fall, dass personenbezogene Daten anonymisiert, verschlüsselt oder pseudonymisiert werden können, allerdings immer noch zur erneuten Identifizierung einer Person nutzbar sind, bleiben sie weiterhin personenbezogene Daten und fallen unter den Anwendungsbereich der DS-GVO. Das heißt, die unerlaubte Weitergabe personenbezogener Daten, ohne Einwilligung der betroffenen Person an Dritte zur Verarbeitung ist untersagt (vgl. Art. 6 Abs. 1 lit. a) und Art.7 DS-GVO). Ist dagegen die Anonymisierung der Daten unumkehrbar, so verlieren die anonymisierten Daten ihren Status als personenbezogene Daten (vgl. Erwägungsgrund Nr.26 DS-GVO). Insofern wird an dieser Stelle schon darauf hingewiesen, dass die technisch sichere - mit dem Datenschutzrecht in Einklang stehende - Anonymisierung personenbezogener Daten eine zwingende technische Voraussetzung für eine mögliche Daten-Sharing-Pflicht voraussetzt.

Welchen Herausforderungen diese Bedingung ausgesetzt ist, zeigt bereits die veröffentlichte Studie von Sweeney im Jahr 2000. Sweeney (2000) führte Experimente mit den Zensus-Daten der US-Volkszählung aus dem Jahr 1990 durch, um herauszufinden, wie viele Individuen innerhalb einer geographisch begrenzten Population, Kombinationen von demografischen Daten bilden, die selten vorkamen. Sweeney (2000) konnte anonym sicher geglaubte Daten de-anonymisieren und durch die Kombination weniger Merkmale Individuen eindeutig oder fast eindeutig identifizieren. Als entscheidendes Instrument hierfür stellte sich die Verknüpfung (sog. Linking) mit öffentlich zugänglichen Datenbanken heraus. Beispielsweise kombinierte sie Informationen der Krankenkasse des Bundesstaates Massachusetts, die keinerlei Auskünfte zum Namen oder der Adresse beinhalteten, mit dem Wählerverzeichnis des gleichen Bundesstaates (vgl. Sweeney, 2000, S. 2f.). Insgesamt stellte sie fest, dass 87 Prozent der Bevölkerung in den Vereinigten Staaten Merkmale berichteten, die sie nur auf Basis der Merkmale: Postleitzahl, Geschlecht und Geburtsdatum einzigartig machten. Die Hälfte der US-Bevölkerung ist wahrscheinlich nur durch die Merkmale: Ort, Geschlecht und Geburtsdatum eindeutig zu identifizieren. Zusammenfassend sind aus der Perspektive von Sweeney (2000) sogar nur wenige Merkmale im Allgemeinen zur eindeutigen Identifizierung einer Person notwendig. Andere Studien weisen zudem ähnliche Ergebnisse auf (vgl. Narayanan und Shmatikov, 2008).

Ebenso wichtig wie die Grundlage einer technisch sicheren Anonymisierung personenbezogener Daten ist der Aspekt der Datenübertragbarkeit bzw. Datenportabilität. So hat auf Grundlage des Art. 20 DS-GVO jede natürliche Person das Recht auf die Aushändigung der personenbezogenen Daten in einem strukturierten, gängigen und maschinenlesbaren Format. Somit soll einerseits die Datensouveränität des Betroffenen gewährleistet werden, sowie andererseits sog. „Lock-in-Effekte“ aufgrund zu hoher Wechselkosten vermieden werden. Der Artikel führt zu unterschiedlichen Bewertungen. Befürworter konstatieren, dass durch das neue Recht der Datenportabilität der Plattformwechsel und somit Innovations- und Konditionenwettbewerb gefördert werden könnte (vgl. Bundesministerium für Wirtschaft und Energie, 2017, S. 76). Kritiker hingegen sind der Meinung, dass sich das entsprechende Recht vor allem negativ auf den Wettbewerb von Start-ups sowie auf kleine und mittelständische Unternehmen (kurz: KMU) auswirken könnte (vgl. Engels, 2016). Nicht zuletzt stellt sich aber insbesondere die Frage der technischen Möglichkeiten bezüglich des Rechts. So werden beispielsweise die o.g. Anforderungen für die Datenübertragbarkeit in der DS-GVO nicht weiter spezifiziert. Um eine technische Datenportabilität dem Wesen nach gewährleisten zu können, müsste die Interoperabilität unterschiedlicher Systeme und Formate existieren. Ebenfalls denkbar wäre die Standardisierung hin zu einem „Daten-Standardformat“.

2.3 Nicht-personenbezogene Daten

In der Digitalwirtschaft basieren Geschäftsmodelle nicht nur auf Daten, die natürliche Personen betreffen, sondern auch auf Daten, die maschinell oder systemisch erzeugt werden und sich sofern abgrenzbar nicht auf Personen beziehen. Mögliche Beispiele für nicht-personenbezogene Daten sind Motorleistungsdaten, Energieverbrauchsdaten, Aktienkurs- und Transaktionsdaten aber auch vollständig anonymisierte personenbezogene Daten. Während mit Inkrafttreten der DS-GVO die Definition und Verarbeitung personenbezogener Daten einen einheitlichen und EU-weit verbindlichen rechtlichen Rahmen erhalten hat, ist das Spektrum der nicht-personenbezogenen Daten hinsichtlich z.B. Dateneigentum, Datenübermittlung, Datenübertragbarkeit noch weitestgehend ungeregelt.

Diesen Zustand hat die Europäische Kommission im Jahr 2015 zum Anlass genommen, um sich mit der Frage auseinanderzusetzen, inwieweit im Rahmen zur Entwicklung eines digitalen Binnenmarktes (Digital Single Market), der ebenfalls den Aufbau einer europäischen Datenwirtschaft beinhaltet, ein regulatorischer Handlungsbedarf besteht (vgl. COM (2015) 192 final, S.13-17). So führen aus Sicht der Kommission rechtliche Unklarheiten und Hemmnisse dazu, dass ein freier Datenverkehr in der EU für nicht-personenbezogene Daten bis heute nur eingeschränkt möglich ist (vgl. COM (2017) 9 final). Dieser Zustand ist insofern problematisch, als er die Potenziale, die sich aus wirtschaftlichen, sozialen und unternehmerischen Chancen zusammensetzen, bisweilen weitestgehend verhindert. So weist das aktuelle Update der Europa Data Market-Studie daraufhin, dass die Datenwirtschaft im Jahr 2025 insgesamt ein Volumen von ca. 700 Mrd. Euro erreichen wird, was einen Anteil am EU-BIP (EU28, inklusive Großbritannien) von 4,2 Prozent entspricht (vgl. Datalandscape, 2019, S.25).2

Beispielsweise können die Mitgliedsstaaten derzeit noch Auflagen erlassen, die nur eine Verarbeitung und Speicherung von Daten innerhalb der nationalen Grenzen erlauben. Im Rahmen der beschlossenen Verordnung (EU) 2018/1807 vom 14.11.2018 wird diese geographische Beschränkung nun aufgelöst, womit ein wichtiger erster Schritt hin zu einem freien Datenverkehr vollzogen worden ist.

2.4 Maschinengenerierte Daten

Im Zusammenhang mit nicht-personenbezogenen Daten nimmt aber insbesondere die Bedeutung und das wirtschaftliche Potenzial aus maschinengenerierten Daten eine zentrale Stellung ein (vgl. COM (2015) 192 final, S. 9-15). Hierbei bilden insbesondere die Themenschwerpunkte: Datenzugang und Übertragung, Haftung sowie technische Interoperabilität und Normung zentrale Elemente der Diskussion.

Die Europäische Kommission definiert maschinengenerierte Daten wie folgt:

„Daten werden von Maschinen ohne den unmittelbaren Eingriff eines Menschen im Rahmen von Computerprozessen, Anwendungen oder Diensten oder auch durch Sensoren erzeugt, die Informationen von virtuellen oder realen Geräten oder Maschinen oder von einer Software erhalten.“ (Europäische Kommission, 2017b, S.10)

Als ein konkretes Anwendungsfeld wird die sog. „Smart Factory“ im Kontext von Industrie 4.0 genannt: Hier werden z.B. Informationen hinsichtlich der Funktions- und Verbrauchsdaten von Produktionsanlagen mit Hilfe von Sensoren an den Maschinen erfasst, in Echtzeit analysiert und schließlich Produktionsabläufe- und prozesse nachhaltig optimiert sowie Produkte verbessert (vgl. Ramsauer, 2013, S.8). Dadurch lässt sich die Ressourceneffizienz z.B. hinsichtlich Materialeinsatz, Maschinensicherheit und -zustand, Energieverbrauch und menschlicher Arbeit deutlich steigern. Doch auch in anderen Sektoren z.B. Verkehr (Smart Mobility), Energie (Smart Energy), Wohnen (Smart Home), Landwirtschaft 4.0, Gesundheit (Smart Health) und Pflege nimmt die Bedeutung maschinengenerierter Daten stetig zu.

Eine klare Abgrenzung maschinengenerierter Daten von nicht-personenbezogenen Daten ist jedoch schwierig. So sind maschinengenerierte Daten auch in der Lage, eine natürliche Person zu identifizieren, beispielsweise wenn die Daten nicht vollständig autonom, sondern eben auf Basis einer Interaktion zwischen Maschine, Endgerät und Mensch erzeugt werden (z.B. Standort und Mobilitätsdaten). Insofern würden sie unter den Anwendungsbereich der DS-GVO und damit personenbezogener Daten fallen (vgl. Kapitel 2.2).

Im Falle nicht-personenbezogener, maschinengenerierter Daten stellt sich hingegen die Frage, inwieweit der Datenzugang für andere Marktteilnehmer eine wichtige Komponente für optimale Wertschöpfung, Wettbewerb und Innovation darstellt, wenn nicht nur der Erzeuger darauf Zugriff hat (vgl. Bundeskartellamt, 2017, S.9). Warum sollte beispielsweise nicht auch der Hersteller der Maschine und nicht nur der aktuelle Eigentümer und Nutzer die uneingeschränkte Möglichkeit erhalten, die erfassten Daten zu bekommen, um entsprechende Optimierungsprozesse an Produkten und Dienstleistungen vorzunehmen? Diese Frage lässt sich darüber hinaus auch auf den Zugang für direkte Konkurrenten anführen. So wird diskutiert, ob erfasste „Rohdaten“, sofern sie keinerlei Rückschlüsse auf Geschäfts- und Betriebsgeheimnisse beinhalten, nicht auch Konkurrenten zur Verfügung gestellt werden sollten. In diesem Zusammenhang wird argumentiert, dass Unternehmen, die aufgrund ihrer Größe über sog. Datensilos verfügen, einen Wettbewerbsvorteil gegenüber kleineren Unternehmen haben, die entweder keinen Zugang haben oder ihnen auch die Möglichkeiten fehlen diese zu sammeln bzw. zu erzeugen. Vor dem Hintergrund maschinellen Lernens und KI bildet die Verfügbarkeit über große Datenmengen jedoch einen entscheidenden Faktor (vgl. Jordan und Mitchell, 2015).

Wie am Beispiel der personenbezogenen Daten bilden auch bei nicht-personenbezogenen, maschinengenerierten Daten die Aspekte der technischen Datenportabilität, Interoperabilität, Normung und Anonymisierung eine entscheidende Voraussetzung für eine mögliche Daten-Sharing-Pflicht (vgl. IT-Production, 2019). So existieren beispielhaft in der Produktion-IT, historisch bedingt viele inhomogene IT-Insellösungen, die teilweise technologisch weder zukunftsfähig noch mehrsprachig sind, keine Standards nutzen oder überhaupt nicht mehr zu warten sind (vgl. Kletti, 2015a, S.8-9; Kletti, 2015b, S.269-274). Insofern wirft dies die Frage auf, ob eine technische Normierung und mögliche Interoperabilität überhaupt zu erreichen ist. So wäre sicherzustellen, dass die Eingrenzung möglicher Datenformate mit den in der Praxis angewandten Systemen nutzbar bzw. interoperabel ist. Darüber hinaus besteht die Herausforderung darin zu definieren, welche Daten als „Rohdaten“ zu identifizieren sind und gleichzeitig keine Gefahr für die Re-Identifizierung von Betriebs- und Geschäftsgeheimnissen des Einzelnen bedeuten.

2.5 Fazit

Die Klassifizierung von Daten als Gut ist schwierig und wird daher vereinfachten Vergleichen z.B. als „Öl“ des 21. Jahrhunderts nicht gerecht. Im Gegenteil, Daten sind nicht mit einem homogenen Gut vergleichbar, sie sind durch eine große Vielfalt und Heterogenität gekennzeichnet. Je nach Kontext haben sie zudem einen unterschiedlichen Informationsgehalt und Wert, der sich nicht gegenseitig substituieren lässt. Eine Grundlage zur Klassifizierung bieten die Eigenschaften von Informationsgütern. Zu nennen wäre hier beispielsweise die Eigenschaft der Nicht-Rivalität oder Nicht-Ausschließbarkeit. Während das Kriterium der Nicht-Rivalität für Daten auszuschließen ist, stellt das Kriterium der Nicht-Ausschließbarkeit die Klassifizierung von Daten vor Herausforderungen. Zwar liegt es nach Varian (1999) nicht zwingend in der Natur eines Gutes selbst, dass andere Unternehmen und Personen von der Nutzung ausgeschlossen werden. Entscheidend hierfür sind aber letztlich „soziale Entscheidungen“.

Das hat zur Konsequenz, dass für bestimmte Kategorien von Daten unter Umständen (z.B. aufgrund des Datenschutzrechts oder technischer Eigenschaften) die Ausschließbarkeit erfüllt ist und somit andere Akteure (z.B. Unternehmen oder Personen) von der Nutzung ausgeschlossen sind. Die vorgestellten personenbezogenen Daten sind hierfür ein gutes Beispiel, die allerdings sofern sie vollständig, sicher und unumkehrbar anonymisiert werden können, wiederum unter die Kategorie eines öffentlichen Gutes fallen können. Gleiches gilt im Übrigen für nicht-personenbezogene, maschinengenerierte Daten. Auch hier sind die Aspekte der technischen Datenportabilität, Interoperabilität, Normung und Anonymisierung eine entscheidende Voraussetzung, damit die Eigenschaften eines öffentlichen Gutes überhaupt erfüllbar wären.

Die Realität zeigt ebenfalls, dass offene Datensätze (Open-Data) für bestimmte Datenkategorien existieren können, sofern sie unter einer gering einschränkenden Nutzungslizenz freizugänglich, kostenlos und universell technisch nutzbar sind. Gleichzeitig darf zudem nicht außer Acht gelassen werden, dass personenbezogene Daten eben nicht kostenlos sind, sondern einen bestimmten Preis haben, der zwar nicht monetär gemessen werden kann, aber gegen Nutzung eines Dienstes bei Plattformgeschäftsmodellen mit Informationen bezahlt wird. Diese wiederum führen in der Realität dazu, dass Daten als Gut in der Regel sowohl in Form eines öffentlichen Gutes als auch Clubgutes auftreten.

Vor diesem Hintergrund bleibt daher festzuhalten: Soziale Entscheidungen führen dazu, dass Daten in der Regel sowohl in Form eines öffentlichen Gutes als auch Clubgutes auftreten. Ob Daten als ein öffentliches Gut bzw. Gemeingut betrachtet werden sollten, kann deshalb hier nicht beantwortet werden. So gibt es gute Gründe, wenn z.B. personenbezogene Daten von Individuen durch den Datenschutz vor Missbrauch (negativer externer Effekt) geschützt werden. Gleichzeitig können diese Regeln aber auch dazu führen, dass wirtschaftliche Potenziale aufgrund der fehlenden Verfügbarkeit nicht realisiert werden können.

3. Wertschöpfungs- & Wettbewerbsfaktor Daten

Wie zuvor schon bei der Strukturierung von Daten angedeutet, bilden Daten z.B. im Rahmen von Big Data oder IoT (vgl. Kapitel 2.1, S.7; Kapitel 2.4) den wesentlichen Inputfaktor zur Optimierung von Entscheidungen und Prozessen in der Datenwirtschaft. Darüber hinaus dienen sie als wichtiger Inputfaktor für die Entwicklung neuer Geschäftsmodelle beispielsweise in Form von neuen innovativen Produkten und Dienstleistungen. Das folgende Kapitel ordnet Daten als Inputfaktor zunächst in den Kontext der Wertschöpfung sowie in das Umfeld datengetriebener Geschäftsmodelle ein. In diesem Zusammenhang wird auch ein Blick auf die Wertschöpfungskette von Daten eine wichtige Rolle spielen. Der zweite Abschnitt des Kapitels hingegen untersucht das Themengebiet von Daten als bedeutsamer Wettbewerbsfaktor. So werden drei Effekte von Daten im Rahmen datengetriebener Geschäftsmodelle vorgestellt, die einerseits einen exklusiven Zugang zu Daten begünstigen können sowie andererseits als Folge eine dauerhafte Marktmachtstellung unterstützen und ggfs. Marktmissbrauch fördern. Der letzte Abschnitt des Kapitels führt die Diskussion, inwiefern bestimmte Daten oder Datentypen als eine „Essential Facility“ identifiziert werden können.

3.1 Ökonomisches Potenzial von Daten als Wertschöpfungsfaktor

Im Rahmen des Kapitels 2.1 wurde darauf hingewiesen, dass Daten sofern ihnen eine Bedeutung zugeteilt werden kann, Informationen darstellen und diese durch eine entsprechende systematische Verarbeitung und Auswertung nachhaltige Wettbewerbsvorteile begünstigen können. Diese Erkenntnis ist nicht neu, nichtsdestotrotz haben sich im Rahmen der fortschreitenden Digitalisierung die zugehörigen Umstände deutlich verändert. So werden heute riesige Datenmengen tagtäglich, ob durch Maschinen, Endgeräte oder Nutzer, exponentiell und in unterschiedlicher Strukturierung produziert (vgl. Kapitel 2, S.5). Gleichzeitig stehen mittlerweile technische IT-Systeme, Tools und Analyseinstrumente (Data-Analytics) zur Verfügung, die es zunehmend ermöglichen, diese rasant wachsende „Datenflut“ zu erfassen, speichern, und auszuwerten. Vor diesem Hintergrund bieten Daten also mehr als je zuvor eine wichtige Grundlage für viele neue Wertschöpfungspotenziale in sämtlichen Wirtschafts- und Lebensbereichen (vgl. Manyika et al., 2011).

Auf der Unternehmensseite bedeutet das z.B. die systematische Auswertung von Daten und die Möglichkeit, bestehende Produktions- und Vertriebsprozesse zu optimieren oder neue Produkte und Innovationen bedarfsorientiert und individualisiert für den Kunden zu entwickeln (vgl. Bundeskartellamt, 2016b, S.10). Insofern wird deutlich, warum Daten für die Unternehmensseite auch immer wichtiger werden. Einen Hinweis hierfür liefert beispielsweise eine Studie der Commerzbank, bei der Führungskräfte der obersten Ebene von 2.004 mittelständischen Unternehmen dazu befragt worden sind, welche Chancen und Herausforderungen sie mit Big Data verbinden (vgl. Commerzbank, 2018, S.3f.). Hierbei haben 81 Prozent der Befragten angegeben, dass sie die Thematik Big Data für sehr wichtig halten. Zwei Drittel der Befragten erwarten zudem in den nächsten fünf Jahren einen massiven Umbruch innerhalb ihrer Branchen. Welche wirtschaftlichen Vorteile (z.B. Produktivitäts- und Profitabilitätssteigerung) sich für Unternehmen bieten, die Daten sammeln, auswerten und in die Entscheidungsfindung miteinfließen lassen, weisen Untersuchungen bereits nach (vgl. Brynjolfsson und McElheran, 2016; Gupta und George, 2016; McAfee und Brynjolfsson, 2012; Brynjolfsson et al. 2011). Weitere ökonomische Potenziale bieten sich darüber hinaus durch die KI-gestützte Optimierung von Produktion, Qualität und Personalisierung (vgl. Hecker et al., 2017). Die Smart Factory als Beispiel einer autonom vollständig über IoT-Sensoren vernetzten Produktionsstätte wurde bereits vor dem Hintergrund maschinengenerierter Daten skizziert (vgl. Kapitel 2.4). Die Beratungsgesellschaft PricewaterhouseCoopers (kurz: PWC) prognostiziert beispielsweise, dass allein durch KI das deutsche Bruttoinlandsprodukt (BIP) bis zum Jahr 2030 um 11,3 Prozent gesteigert werden könnte (vgl. PricewaterhouseCoopers, 2018, S.4).

Ein anderes Wertschöpfungspotenzial zeigt sich im Rahmen von IoT. Die weltweite Vernetzung von physischen Geräten ermöglicht es, Daten in Echtzeit über das Gerät selbst sowie über dessen Umwelt zu erfassen. Als ein praktisches Anwendungsbeispiel könnte das europäische Flugzeug-Messsystem Aircraft Meteorological Data Relay (kurz: E-AMDAR) genannt werden (vgl. Hoff et al., 2013, 21-26). Dabei werden täglich 40.000 meteorologische Messdaten von Flugzeug-Meldungen europäischer Fluggesellschaften erfasst und automatisiert verarbeitet. Die Flugzeug-Meldungen beinhalten taktweise jeweils zu den Orts- und Zeitangaben, meteorologische Informationen z.B. zur Lufttemperatur, Windgeschwindigkeit, Windrichtung und Luftfeuchte. Aufgrund der AMDAR-Temperatur- und Windbeobachtungen ist die Fähigkeit von Prognosen sowohl auf regionaler, als auch auf globaler Ebene im Rahmen kurz- und mittelfristiger Prognosen erhöht worden. Nach Petersen (2016) tragen demnach Flugzeugbeobachtungen zur Verbesserung von 24-Stunden-Wetterprognosen von zehn bis 15 Prozent bei. In Gebieten, wo eine hohe Datendichte gegeben ist, bilden sie sogar die wichtigste Datengrundlage für die numerische Wettervorhersage. Das ausgehende Potenzial von präzisen meteorologischen Prognosen unter Verwendung von AMDAR-Daten zeichnet sich schließlich durch verschiedene direkte Vorteile aus (vgl. World Meteorological Organization, 2018). So können beispielsweise Fluggesellschaften den Treibstoffverbrauch reduzieren und Kosteneinsparungen erzielen. Die Flugplanung kann effizienter gestaltet werden, wodurch sich z.B. auch Treibhausgase für die Umwelt reduzieren lassen. Die Fluggäste profitieren von mehr Sicherheit im Rahmen präziser Wetterprognosen für die optimale Flugroute. Darüber hinaus ergeben sich aber ebenso Vorteile für die Katastrophenvorsorge, Landwirtschaft und Gesundheit.

In Echtzeit generierte und verarbeitete Daten können weiterhin dazu beitragen, die Verkehrsmobilität effizienter zu gestalten und gleichzeitig volkswirtschaftliche Kosten zu reduzieren. In den letzten Jahren haben verschiedene Studien den Versuch unternommen, die volkswirtschaftlichen direkten bzw. indirekten Kosten zu beziffern, die durch Stau entstehen. Garrido (2012) schätzt zum Beispiel die Staukosten eines typischen Arbeitstags in der Stadt Antofagasta in Chile auf insgesamt 1,02 Mio. US-Dollar pro Tag. Zum Vergleich, die Bundesregierung bezifferte auf ihrer Website im Jahr 2010 die volkswirtschaftlichen Kosten pro Tag in Deutschland auf insgesamt 250 Mio. Euro (vgl. Bundesregierung, 2010). Aufgrund der Situation, dass kein einheitliches Modell für die Berechnung volkswirtschaftlicher Kosten, durch Verkehrsstau bedingt, existiert, schwanken die ermittelten Ergebnisse der jeweiligen Studien je nach Modell, Methode, berücksichtigter Faktoren und Annahmen sehr unterschiedlich (vgl. Eisenkopf, 2018). Trotz dieser Schwierigkeiten ist allerdings nicht zu bestreiten, dass eine ineffiziente Verkehrsmobilität die Entstehung volkswirtschaftlicher Kosten begünstigt, und deshalb Optimierungspotenziale vorliegen.

Auch im Bereich der Verkehrsnachrichten und Navigation stellen Daten eine wichtige Rolle dar. Nach einer im Jahr 2018 durchgeführten repräsentativen Befragung von BITKOM (vgl. 2018) bleibt die erste Anlaufstelle für Verkehrsnachrichten weiterhin das Radio. Insgesamt 87 Prozent der Befragten nutzen diese Informationsquelle zuerst. Rund 53 Prozent nutzen zudem ein herkömmliches Navigationsgerät, das Staumeldungen entweder via Internetverbindung oder Radio-Signal synchronisiert. Letzteres hat jedoch den Nachteil, dass eine rechtzeitige Routen-Neuberechnung, mit der ein Stau umfahren werden kann, oftmals zu spät erfolgt. Anders hingegen ist die Situation bei in Echtzeit erfassten und verarbeiteten Daten, die diesen Nachteil marginalisieren können und schließlich in Echtzeit ohne Zeitverzögerung effiziente Routenänderungen vorhersagen und generieren. Als ein Beispiel hierfür könnte die Navigations- und Verkehr-App „INRIX Traffic-App“ von INRIX genannt werden. Dabei profitiert INRIX von einem umfassenden Crowd-Sourcing-Netzwerk mit über 275 Millionen vernetzten Autos und mobilen Geräten (vgl. INRIX, 2016). Während der Nutzung der Software werden Daten z.B. zu Geschwindigkeit und Ort in Echtzeit an INRIX übermittelt und sofort verarbeitet. Dadurch kann Autofahrern zuverlässige Karten- und Echtzeitverkehrsinformationen zur Verfügung gestellt werden. Durch die maschinelle Lerntechnologie ist es somit möglich, Fahrtrouten, Reiseziele und Verkehrswarnungen vorherzuberechnen und zu personalisieren. Die Traffic-App von INRIX steht stellvertretend für die enormen Potenziale ausgehend von Echtzeitverkehrs-informationssystemen, wodurch der Verkehr vernetzt, automatisiert und effizienter gestaltet werden kann und letztlich Nutzer, Unternehmen und die gesamte Volkswirtschaft profitieren können.

Die kurz beschriebenen Beispiele stehen für die zahlreichen wirtschaftlichen und gesellschaftlichen Anwendungsgebiete, die mit der (Echtzeit-)Erfassung, Verarbeitung und Transformation von Daten in neue Innovationen und Dienstleistungen nutzbar werden. Durch die Unterstützung und die Entwicklung neuer Technologien (z.B. IoT, KI, Robotik) werden die Ausmaße und Nutzungsmöglichkeiten von Daten noch umfassender. Um welches gesamtwirtschaftliche Potenzial es sich dabei handelt, ist schwierig vorherzusagen. Doch haben diverse Studien den Versuch bereits unternommen, das Potenzial der Datenwirtschaft zu prognostizieren. Der Data Economy Report 2018 von Digital Reality beispielsweise kalkuliert für das Jahr 2016, welchen wirtschaftlichen Beitrag Daten im Rahmen einer datengetriebenen Wirtschaft (Data Economy) für die deutsche Wirtschaft leisten. Demzufolge beträgt die datengetriebene Wertschöpfung in Deutschland zum Zeitpunkt 2016 ca. 108 Mrd. Euro pro Jahr. Dieser Betrag entspricht schätzungsweise nur insgesamt 55 Prozent des insgesamt verfügbaren Wertschöpfungspotenzials im Jahr 2016. Gleichzeitig wächst die Datenwirtschaft mit 10,9 Prozent schneller als die deutsche Wirtschaft insgesamt (vgl. Digital Reality, 2018).

3.1.1 Daten und ihre Wertschöpfungskette

Während das vorherige Kapitel insbesondere die volkswirtschaftlichen Wertschöpfungspotenziale des Inputfaktors Daten anhand von drei Anwendungsbereichen herausstellt, soll im Folgenden Abschnitt ein differenzierter Blick auf die Wertschöpfungskette von Daten gerichtet werden. Dieser Gegenstand der Betrachtung ist notwendig, da er wichtige Ausgangsbedingungen für die anschließende wettbewerbsrelevante Betrachtung vermittelt und zu Grunde legt. Insgesamt hat bereits eine Vielzahl von Wissenschaftlern, privaten und öffentlichen Institutionen Ansätze entwickelt, um die Wertschöpfungskette von Daten je nach Untersuchungskontext zu strukturieren (vgl. Picot et al., 2018, S.323-332; Bundesverband Digitale Wirtschaft e.V., 2018, S.10-12; GSMA, 2018, 13-25; Schweitzer und Peitz, 2017, S.15-25; Bundesnetzagentur, 2017, S.26; Döppner et al., 2015; BITKOM, 2013, S.15-17; Miller und Mork, 2013). Auf Basis dieser Ansätze wird die Wertschöpfungskette von Daten nachfolgend in fünf Bestandteile differenziert:

1. Datenquellen und Datengewinnung:

Datenquellen

Bevor Rohdaten überhaupt aufbereitet, analysiert und verarbeitet werden können, müssen diese zunächst erfasst werden. Daher kommt den Akteuren, die neue Rohdaten erheben bzw. erschaffen, eine besonders wichtige Rolle zu (vgl. BITKOM, 2013, S.15). Die Rohdaten können entweder selbst, d.h. innerhalb der Unternehmensgrenzen oder durch den Rückgriff von Dritten über interne oder externe Datenquellen erhoben werden (vgl. Bundesnetzagentur, 2017, S.26; Döppner et al., 2015, S.4; GSMA, 2018, S.15). Allgemein definiert, ist letztlich alles als Datenquelle zu identifizieren, was mithilfe von Sensoren aktiv und passiv dazu geeignet ist, Aktionen in ein digitales Datum zu transformieren. Die Heterogenität von Daten (Echtzeit, historisch oder Rohdaten) spiegelt sich hierbei auch in den zugehörigen Datenquellen wider. So existieren diverse interne und externe Datenquellen, wie z.B. Websites, Kassensysteme, Autos, Flugzeuge oder Smartphones, die Daten in unterschiedlichen technischen Formaten (strukturiert oder unstrukturiert) erzeugen und über serverbasierte Systeme weiterleiten.

[...]


1 Zum Vergleich: Ein ZB ist eine Maßeinheit für die Speicherkapazität und steht für Byte. Das entspricht Sextillionen Bytes oder in Zahlen ausgedrückt 1.000.000.000.000.000.000.000 Bytes. Ein Gigabyte dagegen entspricht einer Speicherkapazität von ~ Byte. Das entspricht einer Milliarde Bytes oder in Zahlen ausgedrückt 1.000.000.000 Bytes.

2 Zur Einordnung: Der aktuelle Bundeshaushaltsplan der Bundesrepublik Deutschland für das Haushaltsjahr 2019 entspricht in Ein- und Ausgaben jeweils insgesamt 356 Mrd. Euro (vgl. www.bundeshaushalt.de)

Ende der Leseprobe aus 81 Seiten

Details

Titel
Daten für alle. Chancen und Risiken einer Daten-Sharing-Pflicht aus wettbewerbsökonomischer Perspektive
Hochschule
Heinrich-Heine-Universität Düsseldorf
Note
1,7
Autor
Jahr
2019
Seiten
81
Katalognummer
V501743
ISBN (eBook)
9783346038487
Sprache
Deutsch
Schlagworte
Datenökonomie, Wettbewerbspolitik, Data-Sharing, Personenbezogene Daten, Datenschutz, Maschinendaten, DSGVO, Datenwertschöpfung
Arbeit zitieren
Simon Losekam (Autor), 2019, Daten für alle. Chancen und Risiken einer Daten-Sharing-Pflicht aus wettbewerbsökonomischer Perspektive, München, GRIN Verlag, https://www.grin.com/document/501743

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Daten für alle. Chancen und Risiken einer Daten-Sharing-Pflicht aus wettbewerbsökonomischer Perspektive


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden