Chancen und Risiken von Big Data Praktiken anhand des Smart Home


Seminararbeit, 2019

25 Seiten, Note: 1,7


Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

1 Einleitung

2 Big Data
2.1 Das Big Data Prozessmodell
2.1.1 Datengenerierung
2.1.2 Datenauswertung
2.1.3 Datensteuerung

3 Smart Home
3.1 Die fünf Anwendungsfelder
3.2 Bezug zu Big Data

4 Chancen und Risiken durch den Einsatz von Smart Home

5 Handlungsempfehlungen

6 Fazit

Literaturverzeichnis

Abbildungsvcrzcichnis

Abbildung 1: Das Big Data Prozessmodell.

1 Einleitung

Der technische Fortschritt verändert zunehmend den Alltag und das Privatle- ben eines jeden Individuums. Neuartige Technologien, wie Big Data machen es möglich, gigantische Datenmengen zu erheben, diese in Echtzeit über komplexe Verfahren zu analysieren und Handlungsempfehlungen oder Er- gebnisse zu präsentieren. Diese Entwicklungen durchziehen alle Lebensbe- reiche und machen somit auch keinen Halt vor dem privaten Lebensraum in den eigenen vier Wänden. Nach dem Grundgedanken des ‚Internet der Dinge‘ werden bisher analoge Geräte und Gegenstände, wie zum Beispiel Sicher- heitstechnik, Multimedia- und Haushaltsgeräte intelligent miteinander ver- netzt, können miteinander kommunizieren und zentral gesteuert werden. Un- ter dem Oberbegriff „Smart Home“ werden solche Verfahren und Systeme definiert, deren Hauptaugenmerk eine „Erhöhung von Wohn- und Lebens- qualität, Sicherheit und effizienter Energienutzung auf Basis vernetzter und fernsteuerbarer Geräte und Installationen sowie automatisierbarer Abläufe“ (BITKOM & Deutsches CleanTech Institut (DCTI), 2015, S. 9) vorsehen.

Dabei sind dem Internet der Dinge im Smart Home wahrlich keine Grenzen gesetzt. Auf dem Rückweg von der Arbeit die Heizung anschalten, damit das Haus bei der Ankunft eine angenehme Raumtemperatur hat, eine Sicherheits- kamera mit Gesichtserkennung, die eine Mitteilung auf das Smartphone sen- det, sobald sich Personen der Eingangstür nähern und ein intelligenter Saug- roboter, der automatisch die Wohnung putzt während der ebenfalls vernetzte Kühlschrank aufgebrauchte Vorräte selbst nachbestellt hat. Dies sind keine Zukunftsszenarien, sondern reelle Beispiele für die Nutzung von intelligenten Geräten im Smart Home. Zwar ist die Verbreitung von Smart Home Geräten bisher relativ gering, das zukünftige Potenzial dieser Anwendungen auf dem Massenmarkt jedoch immens (vgl. Kettner & Thorun, 2018, S. 1). In einer Studie von 2014 mit knapp 90.000 Befragten gaben 5,8% der Deutschen Bun- desbürger1 an, in einem vernetzten Haus zu wohnen und 43 Prozent zeigten dafür Interesse (vgl. Fittkau & Maaß, 2014, zit. n. Klaßen, 2015).

Das skizzierte Beispiel zeigt, wie weit der Einsatz von Smart Home Einfluss in die private Lebensführung von Individuen nimmt. Die Konsequenzen eines massenhaften Einsatzes von solch intelligenten Geräten im privaten Wohn- raum auf individueller, also Mikro-Ebene und auf der gesamtgesellschaftli- chen, der Makro-Ebene sind bisher nur zu vermuten. Daher scheint eine Un- tersuchung dieser Art von Vernetzung des eigenen Wohnraums von großem techniksoziologischem Interesse. Die Seminararbeit untersucht daher die fol- genden Fragen: Was sind die Chancen und Risiken für die Individuen und die Gesellschaft durch den Einsatz von Smart Home? Welche Auswirkungen ergeben sich darauf auf eventuelle Regelungsbedarfe? Zur Beantwortung dieser Frage wird einleitend das dem Smart Home zugrundliegende Konzept Big Data definiert und anhand des Big Data Prozessmodells in den drei Teil- schritten Datengenerierung, Datenauswertung und Datensteuerung erläutert. Anschließend wird in Kapitel drei der Untersuchungsgegenstand Smart Home, seine Anwendungsfelder und der Bezug zu Big Data herausgestellt. Das Kapitel vier befasst sich mit der Beantwortung der Forschungsfragen, indem sowohl Chancen als auch Risiken durch den Einsatz von Smart Home für Individuen und die Gesellschaft analysiert werden. In Kapitel fünf werden schließlich Handlungsempfehlungen und Lösungsansätze für einen human- zentrierten Umgang mit dem Smart Home abgeleitet.

2 Big Data

In den letzten Jahrzehnten hat sich das Internet durch die Digitalisierung und den technischen Fortschritt radikal weiterentwickelt. Smartphones, Tablets und andere mobile Endgeräte sind aus dem Alltag nicht mehr wegzudenken. Einer Studie der International Telecommunication Union (ITU) (vgl. 2012, S. 1) zufolge betrug der Anteil an Mobilfunkteilnehmern im Jahr 2011 bereits ca. sechs Milliarden, was einem Anteil von 85,7% der Weltbevölkerung ent- spricht. 1,1 Milliarden Menschen, bzw. 15,7% sind dabei aktive mobile Nut- zer mit Breitband-Netz und die Anzahl an Haushalten mit kabelgebundenem Internet-Anschluss beläuft sich auf 2,3 Milliarden Menschen, bzw. 32,5% Menschen der Weltbevölkerung (ebd.). Durch diese enorme Anzahl an Kom-munikationsteilnehmern entstehen immer größere Datenmengen und gleich- zeitig werden immer neue digitale Angebote entwickelt. Allein im Jahr 2012 wurden insgesamt Daten im Volumen von 2,7 Zettabytes2 geschätzt. Daten- mengen, die zu groß und komplex sind, um sie mit herkömmlichen Daten- analysemethoden zu verarbeiten, bedürfen neuen Ansätzen und Technolo- gien. Hier kommt der Oberbegriff „Big Data“ ins Spiel. Dieser legt den Trug- schluss nahe, dass es sich bei Big Data lediglich um riesige Datenmengen handelt (vgl. Picot, Berchtold, & Neuburger, 2018, S. 316). Vielmehr be- zeichnet es ein „Bündel neu entwickelter Methoden und Technologien, die die Erfassung, Speicherung und Analyse eines großen und beliebig erweiter- baren Volumens unterschiedlich strukturierter Daten“ (Horvarth, 2013, S. 1) ermöglichen.

Der Ursprung, die erstmalige Verwendung und eine einheitliche Definition des Begriffes Big Data ist umstritten und nicht eindeutig geklärt (vgl. McBurney, 2012). Die am häufigsten zitierteste Definition wurde von dem US-Marktforschungsinstitut Gartner Inc. veröffentlicht. Diese geht auf die Arbeiten vom Analysten Doug Laney zurück, welcher Datenwachstum mit den drei V’s – Volume, Variety, Velocity beschrieben hat (vgl. Laney, 2001, S. 1). Diese drei V’s wurden künftig mit Big Data assoziiert und seitdem häu- fig als Basis der Definition herangezogen (vgl. De Mauro, Greco, & Grimaldi, 2015, S. 101).

Mit der Datenmenge (Volume) wird zum Ausdruck gebracht, dass im Kontext von Big Data über Datenmengen gesprochen wird, die mit regulären Daten- banken und Methoden nicht zu verarbeiten wären. Dabei kann man davon ausgehen, dass sich die weltweit gespeicherte Datenmenge ca. alle zwei Jahre verdoppelt (vgl. Gens, 2011, S. 15). Die Daten werden oftmals dezentral in einer Cloud gespeichert. Zudem wird es immer einfacher durch die Digitali- sierung Daten zu sammeln und Organisationen haben bereits einen großen Datenbestand, der in Big Data Analysen das Volumen ebenfalls erhöht.

Eine weitere Eigenschaft des heutigen Datenverkehrs ist seine Geschwindig- keit (Velocity). Die Geschwindigkeit, in der Daten heute gesammelt werden ist eng mit den Gründen für das hohe Datenvolumen verknüpft. Während frü- her hauptsächlich Spezialisten mit der Erhebung von Daten vertraut waren, wird heutzutage beispielsweise über das Smartphone ein ununterbrochener Datenfluss möglich (vgl. Wilder-James, 2012) Der Aspekt der Datenge- schwindigkeit lässt sich in zweierlei Hinsicht betrachten. Erstens, ist hier die enorme Rate zu nennen, mit der Daten aktuell erzeugt werden und zweitens werden die rasch wachsenden Datenmengen stets sehr zeitnah verarbeitet (vgl. Klein, Tran-Gia, & Hartmann, 2013, S. 320).

Das dritte Charakteristikum von Big Data beschreibt die vielfältige Beschaf- fenheit der Daten (Variety). Sie wird als „wichtigster Aspekt“ (Klein et al., 2013, S. 320) in der Definition von Big Data verstanden, da die Vielfalt an inkompatiblen und inkonsistenten Dateistrukturen die größte Barriere im Umgang mit dem effektiven Einsatz von Big Data darstellt (vgl. Laney, 2001, S. 2). Die Datenquellen reichen hier von sozialen Netzwerken, Fotos, Videos, Musikdateien, Blogs, Suchmaschinen, E-Mails, Telefonaten, Streaming- Diensten bis hin zu Sensoren von intelligent vernetzten Geräten. Diese Daten können zum Teil strukturiert sein, wenn sie ein vorgegebenes Format einhal- ten, wie zum Beispiel Profilinformationen oder Kundenstammdaten. Es exis- tieren aber auch eine Vielzahl an semi-strukturierten Daten, die lediglich eine partielle Struktur aufweisen, wie beispielsweise E-Mails. Diese haben einen strukturierten Teil, die Informationen über Empfänger, Sender, Betreff, etc. und den unstrukturierten Text als solches. Unstrukturierte Daten weisen letzt- lich keinerlei formalisierte Struktur auf, wie es bei Bildern der Fall ist. Im Rahmen von Big Data werden diese unterschiedlich strukturierten Daten nun zusammengefasst und analysiert. Das dadurch entstehende „in sich unstruk- turierte Datenkonglomerat kann in drei Kategorien klassifiziert werden“ (Klein et al., 2013, S. 320). Die erste Kategorie beinhaltet Daten aus der Kom- munikation ausschließlich zwischen Personen, wie aus sozialen Netzwerken.

Die zweite Kategorie enthält Daten aus der Kommunikation von Personen und Diensten bzw. Maschinen, wie zum Beispiel durch die Nutzung von On- line-Shops. Mit der dritten Kategorie werden Daten aus der Kommunikation ausschließlich zwischen Diensten und/oder Maschinen verstanden – hier sind insbesondere Sensordaten und GPS Positionsinformationen zu nennen (ebd.).

Neben diesen drei V’s hat sich in Studien über die Evolution des Begriffes Big Data herausgestellt, dass zwei weitere V’s – Veracity und Value – im Laufe der Zeit für die Definition des Begriffes prägend geworden sind (vgl. Ylijoki & Porras, 2016, S. 74).

Mit dem Aspekt Veracity wird thematisiert, inwieweit die Zuverlässigkeit hinsichtlich Qualität und Korrektheit der Quellen, Generierung, Erfassung und Steuerung der Daten gewährleistet ist. Durch die Vielfältigkeit der Daten aus sehr heterogenen Datenquellen können diese sich als zweifelhaft oder un- genau herausstellen (vgl. Klein et al., 2013, S. 321).

Mit dem fünften V, dem Value wird verdeutlicht, dass die Anwendung von Big Data wertsteigernd wirken soll. Die Daten selbst stellen hier die entschei- dende Grundlage dar. Sie werden als essentielle ökonomische Größe betrach- tet und neben den Inputfaktoren Arbeitskraft, Kapital und Ressourcen als „vierter Produktionsfaktor“ (Horvarth, 2013, S. 1) gesehen. Neben der Auf- bereitung der Daten selbst, stellt die Analyse der Daten in Handlungsempfeh- lungen, Prognosen etc. eine wesentliche Komponente für die Wertsteigerung von Big Data Analysen dar (vgl. Mayer-Schönberger & Cukier, 2013, S. 5).

Neben dieser eher technisch geprägten Begriffsbestimmung von Big Data scheint es gewinnbringend sich dem Thema ebenso aus soziologischer Per- spektive zu widmen, um diese Dynamiken im Kontext langfristiger gesell- schaftliche Entwicklungen zu bewerten. Die Wechselwirkungen zwischen so- zialem Handeln und gesellschaftlichen Strukturen im Kontext von Big Data werden daher im nachfolgenden Kapitel untersucht.

2.1 Das Big Data Prozessmodell

In einer soziologischen Perspektive kann Big Data als Prozessmodell verstan- den werden, welches sowohl auf informationstechnische als auch sozialpoli- tische Sichtweisen zurückgreift und Big Data in drei wesentlichen Schritten darstellt (vgl. Abbildung 1).

Abbildung 1:Das Big Data Prozessmodell

Abbildung in dieser Leseprobe nicht enthalten

Quelle:(Weyer et al., 2018, S.74)

1m ersten Schritt werden durch Interaktionen zwischen Menschen und Ma­ schinen Daten generiert. Die Obermittlung der Daten werden hier entweder ak:ti.v vom Menschen oder passiv durch Mascbinen ausgefiihrt. 1m zweiten Schritt werden die Daten von Datenanalysten ausgewertet. Diese, von Algo­ rithmen unterstiitzte Analyse, verliuft weitgehend automatisch ab und greift entweder auf neuartige Methoden des mascbinellen Lernens oder traditionelle statistische Verfahren zuriick (vgl. Weyer et al., 2018, S. 74). Mit der Daten­ steuerung werden komplexe soziotechnische System.e im letzten Schritt, auf Basis der in Schritt zwei ausgewerteten Daten in Echtzeit gesteuert (ebd.).

Der Big Data Prozess verlauft nicht isoliert, sondem ist eingebettet in einen soziokulturellen Kontext, der Big Data sowohl in politischer Dimension be­ greift, aber auch staatlich-reguliertes Handeln im institutionellen Rahmen umfasst. Das Modell wird a1s sich wiederholende Sequenz gedacht: Der Out­ put der Datensteuerung wird wieder zum Input fiir neue Datenerhebungen, welche wiederum von Datenanalysten ausgewertet werden und Grundlage fiir die Steuerung von Menschen und/oder Maschinen darstellt (ebd., S.75).

In den nachfolgenden Kapiteln 2.1.1 bis 2.1.3 werden die drei Teilschritte Datengenerierung, Datenauswertung und Datensteuerung vom Big Data Pro­ zessmodell aus soziologischer Perspek.ti.ve untersucht

2.1.1 Datengenerierung

Die Datengenerierung stellt den ersten Schritt imBig Data Prozessmodell dar. Mogliche Quellen fiir die Generierung von Daten kOnnen zum. Beispiel in Unternehmen durch Industrie 4.0, im öffentlichen Raum durch Smart Cities oder aber in der privaten Lebensführung mit dem Smartphone und dem Smart Home sein. Der Anwendungsfall des Smart Home wird in den nachfolgenden Kapiteln im Detail erörtert. Mit dem Einsatz smarter Technik im Zuge der Digitalisierung wird eine neue Qualität in der Erhebung und Weitergabe oft- mals privater Daten erreicht, welche sich nach Weyer (vgl. 2018, S. 84f.) in den folgenden Dimensionen beschreiben lassen:

- Ubiquität: In nahezu allen Bereichen werden Daten von technischen Ge- räten generiert und erfasst. Nach der Idee des „Ubiquitous Computing“ wird in dieser Dimension die Allgegenwärtigkeit der Informationstechnik verstanden mit dem Ziel die technischen Geräte miteinander kommunizie- ren und im Hintergrund verschwinden zu lassen (vgl. Weiser, 1999, S. 3ff.). Die zur Verfügung stehende Datenmenge steigt dadurch exponentiell an.
- Automatisierung: Die Datengenerierung erfolgt zunehmend über smarte Geräte, wie zum Beispiel über eine intelligente Glühbirne im Kontext von Smart Home. Die Erfassung der Daten verläuft dann entweder teil- oder vollautomatisch, sodass der Mensch in diesem Schritt durch entfallende Aufzeichnung, Dokumentation und Archivierung entlastet wird (vgl. Weyer et al., 2018, S. 85).
- Kontinuität: Während früher in regelmäßigen, aber mit zeitlichem Abstand Daten anfielen, ist es heute praktisch möglich permanent Informationen auszutauschen und somit einen ununterbrochen Datenfluss herzustellen (vgl. Horvarth, 2013, S. 1).
- Ortsunabhängigkeit: Durch den Einsatz von Cloud-Technologien werden die Daten nicht mehr lokal gespeichert, sondern dezentral in Netzwerken gespeichert und über das Internet ortsunabhängig zur Verfügung gestellt. Dadurch verbleiben die erhobenen Daten nicht zwingend bei der datener- hebenden Instanz und können prinzipiell auch anderen Akteuren zur Ver- fügung stehen (vgl. Weyer et al., 2018, S. 85).
- Vielseitigkeit: Die Erhebung der Daten erfolgt nicht ausschließlich über stationäre PCs, sondern kann auch über Sensoren, oder mobile Geräte er- folgen. Durch die erhobenen Inhalts- und Metadaten, wie Standort und Uhrzeit können Rückschlüsse auf die Identität und den Standort der Person bzw. des Objekts getroffen werden (ebd.).
- Simultanität: Cloud-Dienste ermöglichen den Aufbau einer gewaltigen IT- Infrastruktur, die eine enorme Rechen-Leistung bietet. Zudem werden mo- bile Geräte, wie Smartphones immer leistungsfähiger, sodass die parallele Datenerfassung und Auswertung in Echtzeit Realität wird.

Neben einer Differenzierung über die Struktur der Daten (siehe Kapitel 2.1) lassen sich die produzierten Daten verschiedenen Kategorien zuordnen. Hier sind zum einen Inhalts-, Nutzer und Nutzungsdaten zu nennen. Inhaltsdaten können Texte einer Nachricht sein, Nutzer- und Nutzungsdaten ermöglichen eine genaue Identifikation bzw. liefern Daten über eine „Nutzungsepisode“ (Schmidt, 2009, S. 47) der Benutzer. Bei Verhaltens- und Kontextdaten wer- den Beschleunigungs-, Bewegungsdaten oder Daten über die jeweilige Um- gebung, wie beispielsweise die Temperatur geliefert (vgl. Weyer et al., 2018, S. 91). Wenn schließlich Daten über Daten erhoben werden ist die Rede von Metadaten. Diese reichern die primären Daten mit zusätzlichen Informatio- nen an und können auch ohne Kenntnis der primären Daten wertvolle Er- kenntnisse liefern.

[...]


1 Alle Personenbezeichnungen in dieser Seminararbeit beziehen sich ungeachtet ihrer gram- matikalischen Form in gleicher Weise auf alle Geschlechter.

2 Zum Vergleich: Ein Zettabyte sind umgerechnet 1021 Byte.

Ende der Leseprobe aus 25 Seiten

Details

Titel
Chancen und Risiken von Big Data Praktiken anhand des Smart Home
Hochschule
Technische Universität Dortmund
Veranstaltung
Autonome technische Systeme
Note
1,7
Autor
Jahr
2019
Seiten
25
Katalognummer
V505870
ISBN (eBook)
9783346058829
ISBN (Buch)
9783346058836
Sprache
Deutsch
Schlagworte
Big Data, Smart Home
Arbeit zitieren
Benjamin Keil (Autor:in), 2019, Chancen und Risiken von Big Data Praktiken anhand des Smart Home, München, GRIN Verlag, https://www.grin.com/document/505870

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Chancen und Risiken von Big Data Praktiken anhand des Smart Home



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden