Welche Anforderungen müssen an Big Data gestellt werden, damit die Einhaltung der EU-DSGVO gewährleistet werden kann? Ziel dieser Arbeit ist es, dieser Forschungsfrage nachzugehen. Hierfür soll die vorliegende Arbeit zunächst ein grundlegendes Verständnis für Big Data und die EU-DSGVO schaffen. Die Arbeit soll weiterhin verdeutlichen, welche Voraussetzungen zur Nutzung von Big Data erfüllt sein müssen, damit die Anforderungen der EU-DSGVO eingehalten werden.
In Kapitel 2 erfolgt zunächst eine Definition der Begriffe Big Data und EU-DSGVO, um ein Grundverständnis für die Thematik zu vermitteln. Im dritten Kapitel wird eine Analyse der Anforderungen an Big Data unter Berücksichtigung der EU-DSGVO durchgeführt. Dabei wird auf die Rechenschaftspflicht sowie auf die Anforderungen an die Verarbeitung personenbezogener Daten eingegangen. Danach folgen die Anforderungen an Privacy by Design und Privacy by Default. Abschließend werden die Themen Informationspflicht, Auskunftsrecht, automatisierte Einzelfallentscheidung und Profiling sowie Datenschutz-Folgeabschätzung behandelt. Ein Fazit, welches die Ergebnisse zusammenfasst und ein Ausblick auf weiterführende Themen, runden die Arbeit ab.
Inhaltsverzeichnis
1. Einleitung
1.1. Problemstellung und Zielsetzung
1.2. Gang der Untersuchung
2. Methodik
3. Begriffsbestimmung
3.1. Definition Big Data
3.2. Definition EU-DSGVO
4. Anforderungen an Big Data unter der EU-DSGVO
4.1. Rechenschaftspflicht
4.2. Verarbeitung personenbezogener Daten
4.3. Privacy by Design und Privacy by Default
4.4. Informationspflicht und Auskunftsrecht
4.5. Automatisierte Einzelfallentscheidung und Profiling
4.6. Datenschutz-Folgeabschätzung
5. Schlussbetrachtung
5.1. Fazit
5.2. Ausblick
Zielsetzung & Themen
Die Arbeit untersucht, welche datenschutzrechtlichen Anforderungen an Big-Data-Anwendungen gestellt werden müssen, um eine rechtskonforme Verarbeitung personenbezogener Daten unter der EU-Datenschutz-Grundverordnung zu gewährleisten.
- Grundlagen von Big Data und der DSGVO
- Verarbeitungsgrundsätze wie Transparenz und Zweckbindung
- Gestaltungsprinzipien (Privacy by Design/Default)
- Automatisierte Entscheidungsfindung und Anonymisierung
- Risikomanagement durch Datenschutz-Folgeabschätzungen
Auszug aus dem Buch
3.1. Definition Big Data
Der Begriff Big Data bezieht sich im Allgemeinen auf große Datensätze, die von Unternehmen und Behörden gesammelt werden und so umfangreich und komplex sind, dass herkömmliche Datenverarbeitungsmethoden nicht ausreichen, um die Berechnungen zu bewältigen, die für eine sinnvolle Nutzung der Daten erforderlich sind. Diese Datensätze sind aufgrund der riesigen Menge an Informationen, die in ihren Datenstrukturen verborgen sind, äußerst wertvoll. Wenn sie rechnerisch analysiert werden, können Big Data genauere Einblicke in verborgene Muster, Trends und Zusammenhänge aufdecken, insbesondere solche, die sich auf die menschliche Entscheidungsfindung beziehen (Grable & Lyons, 2018, S. 17). Drei Technologietrends tragen dazu bei, dass Big Data weiter angetrieben wird. Dazu gehört die zunehmende elektronische Abwicklung von Geschäftsprozessen, die eigenständige Erzeugung von Daten durch Individuen und die fortschreitende Digitalisierung (Rüping, 2015, S. 796).
Die Sammlung, Speicherung und Analyse großer Datenbestände dient dabei der Gewinnung neuer Erkenntnisse, dem Treffen fundierter Entscheidungen und der Erlangung von Wettbewerbsvorteilen, indem beispielsweise Geschäftsprozesse optimiert oder neuartige Geschäftsmodelle geschaffen werden (Schmelzer & Sesselmann, 2020, S. 679–680).
Zusammenfassung der Kapitel
1. Einleitung: Die Einleitung führt in die Herausforderungen von Big Data ein und definiert die Forschungsfrage bezüglich der Vereinbarkeit mit den Anforderungen der EU-DSGVO.
2. Methodik: Dieses Kapitel erläutert das rein literaturbasierte Vorgehen und die Suchstrategien, die zur Identifikation der relevanten Quellen genutzt wurden.
3. Begriffsbestimmung: Es werden die zentralen Begriffe „Big Data“ und „EU-DSGVO“ definiert, um ein gemeinsames Verständnis für die nachfolgende Analyse zu schaffen.
4. Anforderungen an Big Data unter der EU-DSGVO: Der Hauptteil analysiert spezifische datenschutzrechtliche Pflichten und Herausforderungen wie Profiling, Informationspflichten und die Notwendigkeit von Folgeabschätzungen.
5. Schlussbetrachtung: Das Kapitel fasst die Ergebnisse zusammen und gibt einen Ausblick auf die zukünftige Entwicklung von Datenschutzregulierungen im Kontext von Big Data.
Schlüsselwörter
Big Data, EU-DSGVO, Datenschutz, personenbezogene Daten, Profiling, Privacy by Design, Privacy by Default, Datensicherheit, Anonymisierung, Pseudonymisierung, Datenschutz-Folgeabschätzung, Transparenz, Zweckbindung, Informationstechnik, Risikomanagement
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit behandelt die rechtliche Herausforderung, große und komplexe Datenmengen (Big Data) unter den strengen Vorgaben der europäischen Datenschutz-Grundverordnung gesetzeskonform zu verarbeiten.
Welche zentralen Themenfelder sind entscheidend?
Im Zentrum stehen die Verarbeitungsgrundsätze (Zweckbindung, Datensparsamkeit), technische Schutzmaßnahmen sowie die Informationsrechte der betroffenen Personen.
Was ist das primäre Ziel der Untersuchung?
Ziel ist es zu klären, unter welchen spezifischen Voraussetzungen und durch welche Schutzmechanismen Big-Data-Analysen im Einklang mit der EU-DSGVO durchgeführt werden können.
Welche wissenschaftliche Methode kommt zum Einsatz?
Die Arbeit basiert auf einer systematischen Literaturrecherche in wissenschaftlichen Datenbanken, um den aktuellen Stand der Diskussion und rechtliche Anforderungen fundiert aufzuarbeiten.
Was wird im Hauptteil der Arbeit behandelt?
Der Hauptteil analysiert die praktische Anwendung juristischer Konzepte wie der Rechenschaftspflicht, der automatisierten Entscheidungsfindung und der Risikoabschätzung auf Big-Data-Szenarien.
Welche Schlagworte charakterisieren das Werk?
Wichtige Begriffe sind insbesondere EU-DSGVO, Big Data, Privatsphäre, Anonymisierung und Datenschutz-Folgeabschätzung.
Warum ist eine Datenschutz-Folgeabschätzung bei Big Data relevant?
Da Big-Data-Analysen oft Daten aus unterschiedlichsten Quellen zusammenführen, entstehen laut Datenschutzaufsichtsbehörden spezifische Risiken, die eine formale Prüfung der Datenschutzfolgen zwingend erforderlich machen.
Was unterscheidet Anonymisierung von Pseudonymisierung im Big-Data-Kontext?
Während bei der Anonymisierung der Bezug zur Person dauerhaft entfernt wird, bleiben pseudonymisierte Daten weiterhin als personenbezogen einzustufen und unterliegen somit vollständig den Regeln der EU-DSGVO.
- Arbeit zitieren
- Anonym (Autor:in), 2022, Die Verwendung von Big Data unter Einhaltung der EU-Datenschutz-Grundverordnung, München, GRIN Verlag, https://www.grin.com/document/1303512