Ubiquitous Computing

Eine humanzentrierte Technikvision


Diplomarbeit, 2006

110 Seiten, Note: 1,3


Leseprobe


Inhaltsverzeichnis

Kurzfassung

Abstract

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1 Einleitung

2 Die Vision Ubiquitous Computing
2.1 Begriffsbestimmungen
2.1.1 Ubiquitous Computing
2.1.1.1 Omnipräsente und unmerkliche Computer
2.1.1.2 Fundamentale Kritik am Personal Computer
2.1.1.3 Nutzen für den Menschen
2.1.1.4 Was Ubiquitous Computing nicht ist
2.1.2 Vision und Technik
2.1.3 Humanzentrierung
2.1.4 Weitere Ausprägungen von Ubiquitous Computing
2.1.4.1 Pervasive Computing
2.1.4.2 Ambient Intelligence, Ambient Computing
2.1.4.3 Mobile Computing, Nomadic Computing
2.1.4.4 Sentient Computing, Context Awareness, Context Sensitivity
2.1.4.5 Zusammenfassung der Ausprägungen
2.1.5 Smarte Gegenstände
2.2 Paradigmenwechsel
2.3 Interdisziplinarität

3 Technische Aspekte
3.1 Entwicklung der Computernutzung
3.1.1 Trends der Computernutzung nach Weiser
3.1.2 Differenzierte Computernutzung nach Hansen/Neumann
3.2 Mikroelektronik
3.2.1 Einsatzmöglichkeiten von Halbleiterbauelementen
3.2.2 Produktion von Siliziumchips
3.2.3 Rechenleistung
3.2.3.1 FLOPS
3.2.3.2 Vergleichsmessungen
3.2.3.3 MIPS
3.2.3.4 Die Integrationsdichte und das Gesetz von Moore
3.2.3.5 Anmerkungen zur Messung von Rechenleistung
3.3 Datenspeicherungskapazität
3.4 Automatische Identifikation
3.4.1 Texterkennung
3.4.2 Strichcode
3.4.3 Biometrische Erkennung
3.4.4 Chipkarten
3.4.5 Radiofrequenz-Identifikation
3.5 Vernetzung
3.5.1 Computernetzwerke
3.5.2 Datenübertragungskapazität
3.6 Miniaturisierung und Integration in Gegenstände
3.7 Energie
3.8 Sensorik
3.8.1 Sensoren
3.8.2 Lokalisierung
3.9 Aktorik
3.10 Neue Materialien
3.11 Kontextbezogene Systeme
3.12 Kommunikation zwischen Menschen und Maschinen
3.12.1 Einbeziehung des Internets
3.12.2 Schnittstellen
3.12.2.1 Elektronische Tinte
3.12.2.2 Computer in Papierform
3.12.2.3 Retina-Projektion

4 Betriebswirtschaftliche Aspekte
4.1 Datenqualität
4.2 Geschäftsprozesse

5 Ethische Aspekte
5.1 Privacy
5.1.1 Privatheit als Element von Privacy
5.1.1.1 Dezisionale, lokale und informationelle Privatheit
5.1.1.2 Das Recht auf Privatheit
5.1.2 Datensicherheit als Element von Privacy
5.1.3 Datenschutz als Element von Privacy
5.1.4 Datenschutzbeauftragter
5.1.5 Ambivalenz von Privacy
5.2 Herausforderungen
5.2.1 Bildung
5.2.2 Transparenz
5.2.3 Verfügbarkeit
5.2.4 Individualität
5.2.5 Technikpaternalismus
5.2.6 Sicherheitspolitische Begehrlichkeiten
5.2.7 Kommerzielle Begehrlichkeiten
5.3 Elemente einer Privacy-Strategie

6 Fazit

Literaturverzeichnis

Kurzfassung

Diese Arbeit beschreibt die humanzentrierte Technikvision Ubiquitous Computing unter Berücksichtigung der relevanten technischen Entwicklungen, betriebswirtschaftlichen Nutzenpotenziale und ethischen Herausforderungen. Nach einer Einführung wird Mark Weisers Vision einer ubiquitären und unmerklichen Computernutzung beschrieben und Pervasive Computing, Ambient Intelligence, Mobile Computing und Sentient Computing gegenübergestellt (Kapitel 2). Einen weiteren Themenschwerpunkt bilden die vielfältigen technischen Aspekte, die Veränderung der Computernutzung und wich­tige Trends der Informations- und Kommunikationstechnik, wie z.B. Leistungssteige­rung, Vernetzung, Adaptivität, Miniaturisierung und Integration in so genannte smarte Gegenstände (Kapitel 3). Betriebswirtschaftliche Nutzenpotenziale, insbesondere in Hinblick auf Datenqualität und Geschäftsprozesse, sind Gegenstand des 4. Kapitels. Des Weiteren ergeben sich aus einer allgegenwärtigen und unsichtbaren Computer­nutzung zahlreiche ethische Aspekte, Fragen zu Privacy (Privatheit, Datenschutz und Datensicherheit) und gesellschaftliche Herausforderungen, die im 5. Kapitel betrachtet werden. Ein Fazit schließt diese Arbeit ab.

Schlagwörter: Ambient Intelligence, Ambient Computing, Context Awareness, Context Sensitivity, Mobile Computing, Nomadic Computing, Pervasive Computing, Sentient Computing, Ubiquitous Computing

Abstract

This thesis deals with the human centered vision of Ubiquitous Computing considering the relevant trends in technology, microeconomic potentials and ethical challenges. After an introduction, Mark Weiser's vision of a new omnipresent and imperceptive usage of computers is described and compared with the related subjects of Pervasive Computing, Ambient Intelligence, Mobile Computing, and Sentient Computing (chapter 2). Another focus is on the description of the versatile aspects of technology, the changing usage of computers, the major trends of information and communication technology like increased performance, interconnectedness, adaptiveness, miniaturization and integration into so called smart devices (chapter 3). Several microeconomic potentials and their ability to optimize the quality of data and – as a consequence of this – of business processes are the topics of chapter 4. Furthermore, the usage of ubiquitous and invisible computers involves numerous ethical aspects, privacy related questions (such as privateness, data protection and data security) and societal challenges which are examined in chapter 5. A conclusion closes this thesis.

Keywords: Ambient Intelligence, Ambient Computing, Context Awareness, Context Sensitivity, Mobile Computing, Nomadic Computing, Pervasive Computing, Sentient Computing, Ubiquitous Computing

Abbildungsverzeichnis

Abb. 1: Dr. Mark D. Weiser

Abb. 2: Begriffsdifferenzierung nach Lyytinen/Yoo

Abb. 3: Verkaufszahlen pro Computerkategorie

Abb. 4: Traditionelle Rechnerkategorien

Abb. 5: Übersicht der Halbleiterbauelemente

Abb. 6: Entwicklung der Rechenleistung in MIPS am Beispiel von Mikroprozessoren der Firma Intel

Abb. 7: Prognose der Entwicklung des Integrationsgrads

Abb. 8: Entwicklung der Integrationsdichte am Beispiel von Chips der Firma Intel

Abb. 9: Prognose der Transistorkosten

Abb. 10: Entwicklung der durchschnittlichen Transistorkosten am Beispiel der Firma Intel

Abb. 11: Entwicklung des Preises für 1 GB Magnetplattenspeicherkapazität

Abb. 12: Hochleistungsscanner

Abb. 13: Strichcode-Beispiel mit EAN-13-Codierung

Abb. 14: Aufbau eines biometrischen Systems

Abb. 15: Kontaktbehaftete Mikroprozessorkarte

Abb. 16: Aufbau eines RFID-Systems

Abb. 17: Aufbau eines Transponders

Abb. 18: Protokolle und Techniken der Datenübertragung

Abb. 19: Entwicklung der Datenübertragungskapazitäten

Abb. 20: Miniaturisierung und Kostendegression

Abb. 21: Größenskala biologischer Systeme mit nanoskaligen Dimensionen

Abb. 22: Entwicklung der Miniaturisierung von Chips

Abb. 23: Energienutzung bei Chips von Intel

Abb. 24: E-Reader iLiad mit elektronischer Tinte

Abb. 25: Modell zur Geschäftsprozessunterstützung

Abb. 26: Top-Down- und Bottom-Up-Ansatz

Abb. 27: Handlungsebenen für das Risikomanagement

Tabellenverzeichnis

Tab. 1: Computerären und ihre typischen Merkmale

Tab. 2: Betriebswirtschaftliche Nutzenpotenziale

Tab. 3: Beispiele für Maßnahmen zur Optimierung der Datensicherheit

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

Allgegenwärtige und kaum wahrnehmbare Computer, sensorgestützte Datenerfassung in Echtzeit und lernfähige Informationssysteme sind nur einige Themen, die mit dem sperrigen Begriff Ubiquitous Computing und seinen verwandten Ausprägungen, wie z.B. Ambient Intelligence und Pervasive Computing, verbunden werden. Gemeinsam haben sie alle eine Form der Computernutzung, die sich im Laufe der Zeit sichtbar ver­ändert hat: Früher haben viele Personen einen Großrechner genutzt und sich teure Rechenzeit geteilt. Dann kam die Blütezeit des massenhaft verkauften Personal Com­puters, den nur eine Person genutzt hat. Mittlerweile benutzt eine Person mehrere Computer, z.B. im Mobiltelefon, in der Armbanduhr oder Digitalkamera. Doch die Ent­wicklung der Informations- und Kommunikationstechnik schreitet rasant voran und hat zur Folge, dass viele kleine und miteinander vernetzte Computer mit Adaptivität und Aktorik ausgerüstet werden. Dadurch können ubiquitäre Computer den Menschen bei seiner Arbeit unterstützen und ihm lästige Alltagsaufgaben abnehmen. In immer mehr Alltagsgegenständen finden sich solche miniaturisierten Computer, die optisch kaum wahrgenommen werden können und ihre Umgebung mittels Sensoren kontinu­ierlich erfassen. Sie sind über das Internet oder spontan entstehende lokale Funknetz­werke mit anderen Computern verbunden, tauschen Daten aus, verarbeiten sie und reagieren auf das Verhalten des Menschen.

Diese Entwicklungen implizieren zahlreiche Nutzenpotenziale und Gefahren, denen sich diese Arbeit aus technischer, betriebswirtschaftlicher und ethischer Perspektive widmet. Zunächst wird die humanzentrierte Technikvision von Mark Weiser beschrie­ben und gegenüber anderen Ausprägungen abgegrenzt. Dabei wird deutlich, dass Ubiquitous Computing bereits Einfluss auf unsere Gesellschaft genommen hat. Daran schließt sich die Darstellung der technischen Aspekte an, die ein breites Themenspek­trum umfassen: Mikroelektronik, Datenspeicherungskapazität, automatische Identifika­tion, Vernetzung, Miniaturisierung und Integration in Gegenstände, Energie, Sensorik, Aktorik, neue Materialien, kontextbezogene Systeme und die Kommunikation zwischen Menschen und Maschinen bzw. Maschinen und Maschinen sind Trends, die Ubiquitous Computing konkret werden lassen. Daher kann es auch nicht verwundern, dass ubi­quitäre Computer bereits in lokal begrenztem Umfang Anwendung finden und be­triebswirtschaftlich genutzt werden. Solche betriebswirtschaftlichen Applikationen und Nutzenpotenziale werden in ihren Grundlagen erläutert und insbesondere wird auf die Optimierung von Datenqualität und Geschäftsprozessen eingegangen. Wichtige ethi­sche Aspekte werden auf Basis des Autonomie-Gedankens angesprochen und die unter dem Begriff Privacy subsumierten Themen Datensicherheit, Datenschutz und Privatheit werden mitsamt ihrer Ambivalenz dargestellt. Hieraus werden Herausforde­rungen für die Privacy abgeleitet und die Elemente einer praxisorientierten Privacy-Strategie aufgezeigt.

2 Die Vision Ubiquitous Computing

Dieses Kapitel beschreibt die Vision Ubiquitous Computing im Sinne von Weiser, zeigt die Unterschiede zwischen Ubiquitous Computing und Virtueller Realität auf und ver­deutlicht, dass es sich um eine humanzentrierte Technikvision handelt. Ergänzend werden die verwandten Ausprägungen Pervasive Computing, Ambient Intelligence, Mobile Computing und Sentient Computing beschrieben und die jeweiligen Gemein­samkeiten bzw. Unterschiede im Vergleich mit Ubiquitous Computing herausgearbeitet. Der definitorische Teil wird durch die Einführung des Begriffs smart abgerundet. Zum Abschluss dieses Kapitels wird gezeigt, dass Ubiquitous Computing die Sicht auf meh­rere wissenschaftliche Felder verändert (Paradigmenwechsel) und einen hohen Grad an Interdisziplinarität erfordert.

2.1 Begriffsbestimmungen

2.1.1 Ubiquitous Computing

2.1.1.1 Omnipräsente und unmerkliche Computer

Der Begriff Ubiquitous Computing im Kontext von rechnergestützter Information und Kommunikation wurde erstmals 1988 von Mark Weiser (* 23.07.1952, † 27.04.1999) während seiner beruflichen Tätigkeit für das Xerox Palo Alto Research Center (PARC) verwendet (Weiser, 1996 b). Weiser gilt zu Recht als der Vater der Vision Ubiquitous Computing, die er wie folgt beschrieben hat: „Inspired by the social scientists, philosophers, and anthropologists at PARC, we have been trying to take a radical look at what computing and networking ought to be like. We believe that people live through their practices and tacit knowledge so that the most powerful things are those that are effectively invisible in use. This is a challenge that affects all of computer science. Our preliminary approach: Activate the world. Provide hundreds of wireless computing devices per person per office, of all scales (from 1" displays to wall sized). This has required new work in operating systems, user interfaces, networks, wireless, displays, and many other areas. We call our work "ubiquitous computing". This is different from PDA's[1], dynabooks[2], or information at your fingertips. It is invisible, everywhere computing that does not live on a personal device of any sort, but is in the woodwork everywhere.“ (Weiser, 1996 b)

Eine zweite Beschreibung findet sich ebenfalls bei Weiser, 1996 b: „For thirty years most interface design, and most computer design, has been headed down the path of the "dramatic" machine. Its highest ideal is to make a computer so exciting, so wonderful, so interesting, that we never want to be without it. A less-traveled path I call the "invisible"; its highest ideal is to make a computer so imbedded, so fitting, so natural, that we use it without even thinking about it. (I have also called this notion "Ubiquitous Computing", and have placed its origins in post-modernism.) I believe that in the next twenty years the second path will come to dominate. But this will not be easy; very little of our current systems infrastructure will survive.“

Drei Jahre nach der erstmaligen Begriffsverwendung veröffentlichte Weiser seinen wegweisenden Aufsatz mit dem Titel „The Computer for the 21st Century“ (Weiser, 1991). Darin schreibt Weiser: „The most profound technologies are those that disappear. They weave themselves into the fabric of everyday life until they are indistinguishable from it.“ Als Beispiel für eine solche profunde Technik führt Weiser die Lese- und Schreibfähigkeit an, die in den industrialisierten Ländern ubiquitär sei, d.h. das Alltagsleben der Menschen weitestgehend durchdrungen habe, und dennoch ihren Nutzern relativ wenig Aufmerksamkeit abverlange: „The constant background presence of these products of "literacy technology" does not require active attention, but the information to be conveyed is ready for use at a glance.“ Dieses auf Ausgewogenheit bedachte Verhältnis zwischen den Eigenschaften Omnipräsenz und permanenter Ver­fügbarkeit einerseits sowie Zurückhaltung im Hintergrund und Unaufdringlichkeit ande­rerseits ist für Weiser ein Charakteristikum, das bei „silicon-based information technology“ (Weiser, 1991) fehle: „The state of the art is perhaps analogous to the period when scribes had to know as much about making ink or baking clay as they did about writing.“ (Weiser, 1991)

Zentrale Aspekte der Vision Ubiquitous Computing findet sich auch bei Weiser, 1993 a: „Ubiquitous computing ist the method of enhancing computer use by making many computers available throughout the physical environment, but making them effectively invisible to the user.“ (Weiser, 1993 a) Mit der Bezeichnung „invisible“ ist hier gemeint, dass Computer nicht tatsächlich unsichtbar im Sinne von transparent werden sollen, sondern unmerklich, unauffällig und nicht störend oder ablenkend für den Nutzer. Weiser verdeutlicht seine Ziele, die er mit seiner Vision verbindet, mit einem Werkzeug, welches von seinem Benutzer keine besondere Aufmerksamkeit abverlangt, ihn also nicht von seiner Aufgabenerfüllung abhält, sondern ihn besser als herkömmliche Werk­zeuge unterstützt und sich einfacher als herkömmliche Werkzeuge einsetzen lässt: „A good tool is an invisible tool. By invisible, I mean that the tool does not intrude on your consciousness; you focus on the task, not the tool. Eyeglasses are a good tool -- you look at the world, not the eyeglasses. The blind man tapping the cane feels the street, not the cane. Of course, tools are not invisible in themselves, but as part of a context of use. With enough practice we can make many apparently difficult things disappear: my fingers know vi[3] editing commands that my conscious mind has long forgotten. But good tools enhance invisibility.“ (Weiser, 1993 b)

2.1.1.2 Fundamentale Kritik am Personal Computer

Über die Beweggründe, die Weiser zur Entwicklung der Vision Ubiquitous Computing geführt haben, schreibt er: „The idea of ubiquitous computing first arose from contemplating the place of today's computer in actual activities of everyday life. In particular, anthropological studies of work life [...] teach us that people primarily work in a world of shared situations and unexamined technological skills. However the computer today is isolated and isolating from the overall situation, and fails to get out of the way of the work. In other words, rather than being a tool through which we work, and so which disappears from our awareness, the computer too often remains the focus of attention.“ (Weiser, 1993 a)

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1: Dr. Mark D. Weiser (PARC, 1999)

Weiser behauptet im Jahr 1991, das es kein User-Interface-Problem sei, welches zu Unzufriedenheit bei der Computernutzung führe und in der Folge dem Personal Com­puter (PC) eine Aura der Obskurität verliehen habe (Weiser, 1991). Diesbezüglich geht Weiser noch signifikant weiter und stellt die These auf: „the idea of a "personal" computer itself is misplaced […] Therefore we are trying to conceive a new way of thinking about computers in the world, one that takes into account the natural human environment and allows the computers themselves to vanish into the background.

Such a disappearance is a fundamental consequence not of technology, but of human psychology. Whenever people learn something sufficiently well, they cease to be aware of it. When you look at a street sign, for example, you absorb its information without consciously performing the act of reading. […] only when things disappear in this way are we freed to use them without thinking and so to focus beyond them on new goals.

The idea of integrating computers seamlessly into the world at large runs counter to a number of present-day trends. "Ubiquitous computing" in this context does not just mean computers that can be carried [...]. Even the most powerful notebook computer, with access to a worldwide information network, still focuses attention on a single box. By analogy to writing, carrying a super-laptop is like owning just one very important book. Customizing this book, even writing millions of other books, does not begin to capture the real power of literacy.“ (Weiser, 1991)

Für die Zukunft prognostiziert Weiser einen Wechsel weg von den herkömmlichen Computern und hin zu einer ubiquitären Computerinfrastruktur und -nutzung: „Long-term the PC and workstation will wither because computing access will be everywhere: in the walls, on wrists, and in "scrap computers" (like scrap paper) lying about to be grabbed as needed. This is called "ubiquitous computing", or "ubicomp".“ (Weiser, 1993 c) Der Mensch würde dann auf die kontinuierlich von unmerklichen Computern angebotenen Dienste zugreifen können, ohne sich wesentliche Gedanken über die Computerinfrastruktur machen zu müssen.

2.1.1.3 Nutzen für den Menschen

Mit seiner Vision des Ubiquitous Computing beschreibt Weiser eine neue Generation von miniaturisierten, zahlreich verfügbaren und spezialisierten, unmerklichen Compu­tern, die den Menschen im Alltag unterstützen sollen: „My colleagues and I at PARC believe that what we call ubiquitous computing will gradually emerge as the dominant mode of computer access over the next twenty years. Like the personal computer, ubiquitous computing will enable nothing fundamentally new, but by making everything faster and easier to do, with less strain and mental gymnastics, it will transform what is apparently possible. Desktop publishing, for example, is fundamentally not different from computer typesetting, which dates back to the mid 1960's at least. But ease of use makes an enormous difference.“ (Weiser, 1991)

Weiser betont den Nutzen von Ubiquitous Computing für den Menschen und führt hierzu aus: „Most important, ubiquitous computers will help overcome the problem of information overload. There is more information available at our fingertips during a walk in the woods than in any computer system, yet people find a walk among trees relaxing and computers frustrating. Machines that fit the human environment, instead of forcing humans to enter theirs, will make using a computer as refreshing as taking a walk in the woods.“ (Weiser, 1991)

Durch den Einsatz von Ubiquitous Computing soll sich ein Nutzer stärker auf seine Aufgabenstellung konzentrieren können und nicht mehr von der Computertechnik ab­lenken lassen: „Unlike the intimate agent computer that responds to one's voice and is a personal friend and assistant, ubiquitous computing envisions computation primarily in the background where it may not even be noticed. Whereas the intimate computer does your bidding, the ubiquitous computer leaves you feeling as though you did it yourself.“ (Weiser 1993 c)

Zur Nutzenstiftung stellen Fleisch et al. (2003, S. 6) fest: „in der Literatur steht der all­gegenwärtige Zugriff auf Umgebungsinformationen bzw. Informationen aus dem Inter­net als primär nutzenstiftendes Element im Vordergrund.“ Zudem ergibt sich Nutzen „aus Transaktionen, bei denen der Mensch nicht eingreifen muß“ (Fleisch et al., 2003, S. 6).

Bei Krcmar (2005, S. 506) findet sich folgende Definition, die auf Weiser zurückgeht und an dessen Arbeiten angelehnt ist: „Ubiquitous Computing zielt ab auf eine verbesserte Computernutzung durch die allgegenwärtige Bereitstellung von Rechnern in der physischen Umgebung. Die Computer verschwinden weitgehend aus dem Sichtfeld der Anwender.“

Laut Koch/Schlichter (2001, S. 508) „verbergen sich hinter der Idee des Ubiquitous Computing zwei Konzepte:

1. Computer entwickeln sich von Universalmaschinen zu Spezialmaschinen, sie wer­den also mitsamt Peripherie für eine bestimmte Aufgabe entwickelt. Jeder Mensch besitzt verschiedene Computer für verschiedene Aufgaben. Die Com­puter haben verschiedene Formen und Größen.
2. Computer verschwinden (aus dem Sichtfeld) – sie sind natürlich weiterhin da, der Benutzer nimmt sie aber nicht mehr (als Computer) wahr.“

Bei Hansen/Neumann (2005 b, S. 848) wird das Augenmerk auf die Flexibilität gerich­tet: „Unter Ubiquitous Computing […] versteht man den Einsatz von Rechnertechnolo­gie an beliebigen Orten, zu beliebigen Zeiten, in beliebigen Infrastrukturen.“

In dieser Arbeit wird folgende Definition verwendet: Ubiquitous Computing ist eine hu­manzentrierte Technikvision, die mittels Allgegenwart (im Sinne von permanenter Ver­fügbarkeit) und Unaufdringlichkeit (im Sinne einer Hintergrundassistenz) von speziali­sierten und vernetzten Computern eine leichtere Computernutzung zum Wohle des Menschen erzielen will.

2.1.1.4 Was Ubiquitous Computing nicht ist

Was mit Ubiquitous Computing nicht gemeint ist, hat Weiser an Hand eines Vergleichs mit virtueller Realität beschrieben: „Ubiquitous computing is roughly the opposite of virtual reality. Where virtual reality puts people inside a computer-generated world, ubiquitous computing forces the computer to live out here in the world with people. Virtual reality is primarily a horse power problem; ubiquitous computing is a very difficult integration of human factors, computer science, engineering, and social sciences.“ (Weiser, 1996 b) Die virtuelle Realität versucht jeweils einen Ausschnitt der Realität mittels eines digitalen Modells so genau zu beschreiben, dass anschließend mit diesem Modell z.B. eine Simulationen durchgeführt werden kann (vgl. Fleisch/Dierkes, 2003, S. 146). Mit Ubiquitous Computing hingegen soll die Realität durch eine neue Computernutzung verändert werden.

„Perhaps most diametrically opposed to our vision is the notion of "virtual reality," which attempts to make a world inside the computer. Users don special goggles that project an artificial scene on their eyes; they wear gloves or even body suits that sense their motions and gestures so that they can move about and manipulate virtual objects. Although it may have its purpose in allowing people to explore realms otherwise inaccessible -- the insides of cells, the surfaces of distant planets, the information web of complex databases -- virtual reality is only a map, not a territory. It excludes desks, offices, other people not wearing goggles and body suits, weather, grass, trees, walks, chance encounters and in general the infinite richness of the universe. Virtual reality focuses an enormous apparatus on simulating the world rather than on invisibly enhancing the world that already exists.

Indeed, the opposition between the notion of virtual reality and ubiquitous, invisible computing is so strong that some of us use the term "embodied virtuality" to refer to the process of drawing computers out of their electronic shells. The "virtuality" of computer-readable data -- all the different ways in which it can be altered, processed and analyzed -- is brought into the physical world.“ (Weiser 1991)

2.1.2 Vision und Technik

Der Terminus Vision charakterisiert die „ideale Vorstellung eines zukünftigen Zu­stan­des“ (Vision, 2006). Ubiquitous Computing im zuvor beschriebenen Sinne von Weiser existiert noch nicht und ist folglich ein potenzieller zukünftiger Zustand. Ubiquitous Computing strebt nach einem Ideal: Mittels allgegenwärtigen und unauf­dringlichen Computern sollen die Menschen besser unterstützt werden. Für die Errei­chung dieses Ideals sind eine neue Computerinfrastruktur und eine neue Computer­nutzung nötig. „Dabei sah Weiser Technik als reines Mittel zum Zweck, die in den Hin­tergrund treten soll, um eine Konzentration auf die Sache an sich zu ermöglichen.“ (Langheinrich/Mattern, 2003, S. 2 f.). Ubiquitous Computing im Sinne von Weiser ent­hält sämtliche für eine Vision charakteristischen Elemente. Die Vision Ubiquitous Computing kann konkretisierend als eine Technikvision bezeichnet werden, da die Technik im weiteren Sinne eine grundlegende und beherrschende Rolle in dieser Vi­sion einnimmt. Ohne diverse Techniken (vgl. Kapitel 3 Technische Aspekte, S. 13) ist Ubiquitous Computing offensichtlich nicht möglich und umgekehrt beeinflusst die Vision auch die technische Entwicklung.

2.1.3 Humanzentrierung

Computernutzung per se ist unverkennbar eine von Menschen durchgeführte Tätigkeit. Diese Tätigkeit soll im Rahmen der Vision Ubiquitous Computing mittelbar durch eine Weiterentwicklung der Computertechnik so verändert werden, dass der Mensch hier­aus Vorteile gegenüber der bisherigen Computernutzung gewinnen kann. Heesen (2005, S. 4) führt aus: „In den Szenarien zum Ubiquitous Computing wird die Individua­lität der Nutzerinnen und Nutzer in besonderer Weise hervorgehoben, sie werten Selbstbestimmung und Individualität konzeptionell auf.“ Ubiquitous Computing ist dem­nach „ein weiterer Baustein zur konsequenten Individualisierung des Medien­gebrauchs“ (Heesen, 2005, S. 4) und kann folglich als eine humanzentrierte Technikvi­sion charakterisiert werden (vgl. Langheinrich/Mattern, 2003, S. 3).

2.1.4 Weitere Ausprägungen von Ubiquitous Computing

An der Seite des Terminus Ubiquitous Computing existieren diverse Variationen, von denen die bekanntesten Ausprägungen mit Blick auf ihre jeweilige Semantik und Ver­wendung in dieser Arbeit nachfolgend kurz dargelegt werden.

2.1.4.1 Pervasive Computing

Eine umfassende Definition findet sich bei Hansen/Neumann (2005 b, S. 848). Dem­nach versteht man unter Pervasive Computing „den Einsatz von Rechnertechnologie in Bereichen des täglichen Lebens und Arbeitsumfelds, ohne dass der Benutzer den Ein­druck hat, mit einem Rechner zu arbeiten. Die Informationstechnologie orientiert sich dabei weniger an den Möglichkeiten eines standardisierten Rechners (beispielsweise ein PC), sondern zentral an der Funktion, die bereitgestellt wird.“

Unter Pervasive Computing verstehen Langheinrich/Mattern (2003, S. 3) eine eher pragmatisch akzentuierte und industriell geprägte Form des Ubiquitous Computing. „Auch hier geht es um die überall eindringende und allgegenwärtige Informationsverar­beitung, allerdings mit dem primären Ziel, diese durch die Verwendung vorhandener Mobile-Computing-Technologien schon kurzfristig nutzbar zu machen.“

Zu der Feststellung, dass bei Pervasive Computing „eine starke Fokussierung auf be­triebswirtschaftliche Anwendungsszenarien vorherrscht“, kommt Krcmar (2005, S. 506) und knüpft damit inhaltlich an die zuvor genannte Beschreibung von Langheinrich/Mattern (2003, S. 3) an.

2.1.4.2 Ambient Intelligence, Ambient Computing

Mit Blick auf die Termini Ubiquitous Computing und Pervasive Computing schreiben Langheinrich/Mattern (2003, S. 3): „Als Reaktion auf die US-amerikanisch geprägte Szene um diese beiden Begriffe ist in Europa der Terminus „Ambient Intelligence“ ent­standen, der zusätzlich auch Aspekte der Mensch-Maschine-Interaktion und der künst­lichen Intelligenz umfasst.“

Über das Synonym Ambient Computing kommt Krcmar (2005, S. 506) zu einer ähnli­chen Feststellung: „Ein weiterer häufig verwandter Begriff ist der des Ambient Computings, der von der Europäischen Union geprägt wurde und ebenfalls auf die Durchdringung der Welt mit Computern und der Ausstattung alltäglicher Gegenstände mit Intelligenz sowie der Vernetzung aller Dinge abzielt.“

In dieser Arbeit wird zwischen Ambient Intelligence und Ambient Computing nicht nä­her unterschieden und beide Termini werden gleichbedeutend eingesetzt.

2.1.4.3 Mobile Computing, Nomadic Computing

Die beiden Begriffe Mobile Computing und Nomadic Computing finden sich bei Siemoneit (2003, S. 4) und werden dort – wie auch im weiteren Verlauf in dieser Arbeit – synonym verwendet. Dabei handelt es sich um Informations- und Kommunikations-Systeme (IuK-Systeme), die „sich physikalisch mit dem Besitzer [bewegen] und [..] sich nicht mehr von ihrem einst stationären Pendant [unterscheiden]. Hauptnachteil ist, dass derartige Systeme sich nicht dynamisch an die jeweilige Umgebung anpassen, sondern davon isoliert bleiben und auf Anpassungen durch den Nutzer angewiesen sind.“ (Siemoneit, 2003, S. 4)

Auch Lyytinen/Yoo (2002, S. 63 f.) gehen auf Mobile Computing ein: „Mobile computing is fundamentally about increasing our capability to physically move computing services with us. […] In mobile computing, however, an important limitation is that the computing model does not considerably change while we move.“

Populäre Vertreter dieser Ausprägung sind derzeit insbesondere Laptop-Computer, die auch Notebook oder Mobilrechner genannt werden (Notebook, 2006). Im Kern handelt es sich dabei um einen PC mit herkömmlichem Funktionsumfang plus Mobilität.

2.1.4.4 Sentient Computing, Context Awareness, Context Sensitivity

Sentient Computing wird von Siemoneit (2003, S. 4) mit den beiden Begriffen Context Awareness und Context Sensitivity gleichgesetzt und als eine Weiterentwicklung von Mobile Computing charakterisiert: „Das mobile IuK-System kann Informationen über seine jeweilige Umgebung erlangen, wie z.B. Standort, Blickrichtung, Temperatur- und Lichtverhältnisse etc. und paßt sich diesen permanent und nahtlos an, ohne daß der Nutzer dies aktiv veranlassen muß. Eine derartige Technik soll also selbständig dem Nutzer gewisse Inhalte und Dienste zur Verfügung stellen, die er aufgrund seiner Situ­ation braucht (sog. „Location Based Services“). Die Visionen gehen sogar soweit, daß Systeme „emotion aware“ sind und sich entsprechend der Gefühlslage des Nutzers angepaßt verhalten.“

Im weiteren Verlauf dieser Arbeit werden die drei Termini Sentient Computing, Context Awareness und Context Sensitivity auf Grund ihrer Ähnlichkeiten synonym verwendet.

2.1.4.5 Zusammenfassung der Ausprägungen

Die zuvor genannten Termini Pervasive Computing, Ambient Computing, Mobile Computing und Sentient Computing beziehen sich alle auf Computertechnik und -nutzung. Allerdings sind sie weder selbsterklärend und trennscharf, noch werden sie in der Fachliteratur einheitlich verwendet.

Gemäß Lyytinen/Yoo (2002, S. 64) können die vier Termini Traditional Business Computing (also die etablierte Computernutzung im Geschäftsalltag), Pervasive Computing, Mobile Computing und Ubiquitous Computing mittels zweier Kriterien diffe­renziert werden: „Level of Embeddedness“, einem Gradmesser dafür, wie unauffällig die Computertechnik in den Alltag des Nutzers integriert werden kann (Integrierbarkeit oder auch Verankerung bzw. Eingebundenheit), und „Level of mobility“, einem Grad­messer für die Mobilität der Computertechnik.

Die entsprechende Einteilung kann Abb. 2 entnommen werden. Demnach ist Traditional Business Computing durch geringe Integrierbarkeit und geringe Mobilität gekennzeichnet. Pervasive Computing wird durch hohe Integrierbarkeit bei geringer Mobilität, Mobile Computing durch geringe Integrierbarkeit aber hohe Mobilität und Ubiquitous Computing durch hohe Integrierbarkeit sowie hohe Mobilität beschrieben.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2: Begriffsdifferenzierung nach Lyytinen/Yoo (2002, S. 64)

Die zwei Ausprägungen Mobile Computing und Sentient Computing beruhen auf einer Evolution des PC, dessen Technik u.a. mobil und kontextsensitiv wird. Insbesondere behalten beide Ausprägungen das tradierte Konzept des einen zentralen und persönli­chen Computers bei und erweitern lediglich dessen Funktionsumfang und seine Einsatzmöglichkeiten. Das Fehlen der von Weiser beschriebenen Unsichtbarkeit des Computers (im Sinne von Unaufdringlichkeit) ist signifikant und ermöglicht daher eine relativ eindeutige Abgrenzung zur Vision Ubiquitous Computing.

Anders verhält es sich bei den beiden Termini Pervasive Computing und Ambient Computing, denn sie charakterisieren eine Computertechnik und -nutzung, welche die bereits genannten Kernelemente von Weisers Vision berücksichtigen: Omnipräsenz und Unmerklichkeit von zahlreichen spezialisierten Computern pro Person. Somit kön­nen Pervasive Computing und Ambient Computing als lediglich spezielle Ausprä­gun­gen von Ubiquitous Computing eingestuft werden. Krcmar (2005, S. 506) unter­stützt diese Einordnung durch die Feststellung: „In der Literatur werden die Begriffe unein­heitlich verwendet, für die Belange dieses Buches betrachten wir Ambient und Pervasive Computing als Facetten des Ubiquitous Computing.“ Langheinrich/Mattern (2003, S. 3) kommen mit Blick auf die Unterscheidung der drei Termini Ubiquitous Computing, Pervasive Computing und Ambient Intelligence zu einem vergleichbaren Ergebnis: „In vielerlei Hinsicht bleibt allerdings die Unterscheidung zwischen den drei Begriffen eher akademisch. Gemeinsam ist allen das Ziel einer nachhaltigen Unterstüt­zung des Menschen sowie einer durchgängigen Optimierung wirtschaftlicher Prozesse durch eine Vielzahl von in die Umgebung eingebrachter Mikroprozessoren und Senso­ren.“ Eine weitere Bestätigung der Einschätzung, dass Pervasive Computing und Ambient Intelligence vergleichbar sind, findet sich bei Siemoneit (2003, S. 5): „Ubiquitous Computing sei […] synonym verwendet mit Pervasive Computing und Ambient Intelligence.“

In der hier vorliegenden Arbeit wird der Ansicht gefolgt, dass Pervasive Computing und Ambient Computing kaum differenzierbare Teilgebiete des Oberbegriffs Ubiquitous Computing charakterisieren.

2.1.5 Smarte Gegenstände

Werden Gegenstände, die originär keine Computertechnik enthalten, mit Computer­technik ausgerüstet, entstehen so genannte smarte Gegenstände. Auf Grund der in solchen Fällen vorliegenden gemischten Zusammensetzung können sie zugleich als hybride Gegenstände bezeichnet werden. Ubiquitous Computing als wissenschaftli­ches Forschungsgebiet beschäftigt sich „damit, kleinste Computerprozessoren und mikroelektronische Sensoren in Alltagsgegenstände zu integrieren, um diese smart zu machen. Smarte Dinge können ihre Umgebung erfassen und dadurch Benutzer bei der Bewältigung ihrer Aufgaben auf eine neue, intuitive Art unterstützen.“ (Bohn et al., 2003, S. 195) Für Müller et al. (2003, S. 162) sind Dinge „dadurch „smart“, indem sie angemessen auf die Umwelt reagieren und sich dadurch selbst organisieren.“

2.2 Paradigmenwechsel

Durch Ubiquitous Computing verändert sich die Sicht auf mehrere wissenschaftliche Felder grundlegend. Dies gilt insbesondere für die Interaktionsformen zwischen Men­schen und allgegenwärtigen Computern, aber auch für die Produktion neuartiger Com­puterhardware (Stichwort: Miniaturisierung) und -software (z.B. energiesparende Be­triebsysteme oder Netzwerkkomponenten für permanente Internetverbindung trotz Mo­bilität) (vgl. Koch/Schlichter, 2001, S. 508, 516 und Fleisch et al., 2003, S. 5). Fleisch et al. führen in diesem Zusammenhang aus: „Der Kern des UbiComp[4] sind [..] Objekte der realen Welt, denen durch neue IT[5] innovative Möglichkeiten eröffnet wird und die unter­einander und mit der Umwelt kommunizieren können.“ (Fleisch et al., 2003, S. 5) Es kann also festgestellt werden, dass die Vision Ubiquitous Computing mehrere Para­digmenwechsel impliziert, die hier – um den angemessenen Umfang dieser Arbeit ein­zuhalten – nicht detaillierter dargelegt werden können.

2.3 Interdisziplinarität

Eine ubiquitäre Computernutzung im Sinne von Weiser hätte zweifelsohne umfassende Auswirkungen auf die Nutzer und ihr jeweiliges Umfeld. Selbst jene Personen, denen eine aktive Teilhabe an dieser Form der Computernutzung – aus welchen Gründen auch immer – verwehrt bliebe, wären von den Auswirkungen mindestens indirekt be­troffen. Folglich kann dieser Vision eine umfassende Relevanz zugesprochen werden: „A paradoxical outcome of ubiquitous computing is that it is simultaneously very personal and extremely global. Thus, a complete understanding of its impacts cannot be gained at a single level of analysis.“ (Lyytinen/Yoo, 2002, S. 65)

Insbesondere auf Grund der damit einhergehenden Differenziertheit und Komplexität ist für das Forschungsgebiet Ubiquitous Computing die Interdisziplinarität als ein es­senzieller Bestandteil einzustufen. Wichtige Beiträge können nicht nur die Informatik und Ingenieurwissenschaften, sondern z.B. auch die Sozialwissenschaften, Organisa­tions- und Arbeitswissenschaften, Kybernetik, Ethnologie, Anthropologie, Psychologie und Philosophie leisten.

Weiser war sich dessen bewusst und reflektierte: „I weigh in as an engineer, someone whose primary interest is "what should I build next?" Ubicomp[6] is an unusual project for an engineer, for two reasons. First, I took inspiration from anthropology; and second, I knew that whatever we did would be wrong. [...] As I began to glimpse what such an information applicance might look like, I saw that it would be so different from today's computer that I could not begin to understand or build it.“ (Weiser, 1995)

3 Technische Aspekte

Dieses Kapitel betrachtet die zahlreichen technischen Aspekte der humanzentrierten Technikvision Ubiquitous Computing. Zunächst wird beschrieben, wie sich die Com­puternutzung im Laufe der Zeit verändert hat und welche wichtigen Computerären sich herausgebildet haben. Im weiteren Verlauf werden für Ubiquitous Computing relevante technische Entwicklungen dargestellt, die mit Mikroelektronik, Datenspeicherungska­pazität, automatischer Identifikation, Vernetzung, Miniaturisierung und Integration in Gegenstände, Energie, Sensorik, Aktorik, neuen Materialien, kontextbezogenen Sys­temen und der Kommunikation zwischen Menschen und Maschinen bzw. Maschinen und Maschinen ein breit angelegtes Themenspektrum betreffen. Dabei werden die je­weiligen Grundlagen und die wichtigsten Entwicklungsrichtungen erörtert und in Rela­tion zu Ubiquitous Computing gesetzt.

3.1 Entwicklung der Computernutzung

3.1.1 Trends der Computernutzung nach Weiser

Im März 1996 hat Weiser auf der Konferenz „nomadic ’96“ einen Vortrag gehalten (vgl. Weiser, 1996 b) und die damals verwendete dritte Vortragsfolie (Weiser, 1996 c) wird hier in Abb. 3 (S. 14) wiedergegeben. Weiser nennt auf dieser Folie zunächst drei Katego­rien der Computernutzung:

- Mainframe (viele Personen nutzen einen Computer)
- PC (eine Person nutzt einen Computer)
- Ubiquitous Computing (eine Person nutzt viele Computer)

Des Weiteren zeigt Abb. 3 die Anzahl der verkauften Einheiten pro Jahr für jede der oben genannten drei Kategorien innerhalb einer Zeitspanne von 1940 bis 2005. Unklar sind jedoch die exakte Berechnung und der geografische Bezug der Verkaufszahlen. Ob die Werte nur für den amerikanischen Markt gelten oder nicht, bleibt somit unbe­kannt. Auf Grund des Veröffentlichungsdatums muss es sich zumindest bei den Wer­ten der letzten Dekade um eine Prognose handeln, doch das Augenmerk sollte auf die elementaren Trends gerichtet werden, die mittels der Folie veranschaulicht werden.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 3: Verkaufszahlen pro Computerkategorie (Weiser, 1996 c)

Vereinfachend kann gesagt werden, dass im Zukunftsszenario nach Weiser (1996 c) die Großrechner (Mainframe) von PCs verdrängt werden und Ubiquitous Computing als Techniktrend wiederum die PCs ablöst. Wie im weiteren Verlauf dieser Arbeit ge­zeigt wird, sind die 1996 von Weiser beschriebenen Trends in ihren wesentlichen As­pekten auch heute noch diagnostizierbar. Doch zunächst werden weitere Kategorisie­rungen sowie Nutzungsmöglichkeiten von Computern erläutert.

3.1.2 Differenzierte Computernutzung nach Hansen/Neumann

Computer können kategorisiert werden auf der Basis von verschiedenen Parametern und Eigenschaften (z.B. Preis, technische Leistungsdaten oder Beschaffenheit). Eine klassische Kategorisierung findet sich bei Hansen/Neumann (2005 a, S. 52 f.). Dabei wird unterschieden zwischen:

- Personal Computer
- Workstation
- Minirechner (Minicomputer)
- Großrechner (Mainframe)
- Superrechner

„Diese klassische Einteilung erfolgt primär nach der Leistung und der möglichen Zahl der Benutzer; hiervon sind im Allgemeinen die Bedienungserfordernisse, das Betriebs­system, der Preis und damit die Anzahl der Installationen abhängig.“ (Hansen/Neumann, 2005 a, S. 53) Dieser Sachverhalt ist in Abb. 4 zusammenge­fasst.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 4: Traditionelle Rechnerkategorien (Hansen/Neumann, 2005 a, S. 53)

Zur Historie der Entwicklung der Computernutzung heißt es weiter: „Von Mitte der 1950er bis Mitte der 1980er Jahre dominierten einzelne, teure Großrechner in Rechen­zentren von Großunternehmen, an die Hunderte oder Tausende von Bildschirmen in den Fachabteilungen angeschlossen waren. Ab Mitte der 1960er Jahre bekamen sie zunehmend Konkurrenz von kleineren, preisgünstigeren Minicomputern, die sich auch Mittelbetriebe und größere Abteilungen (vorwiegend im Finanz- und Rechnungswesen und im technischen Bereich) leisten konnten.

Anfang der 1980er Jahre begann der Durchbruch der wesentlich preisgünstigeren Ar­beitsplatzrechner (PCs und Workstations), der zu drastischen Marktanteilsverlusten zuerst bei Großrechnern und dann bei Minicomputern führte.“ (Hansen/Neumann, 2005 a, S. 53)

Der Markt erfährt auch weiterhin eine zunehmende Diversifikation: „Seit Anfang dieses Jahrzehnts erleben kleine mobile Geräte […] einen Boom. Die Gerätevielfalt nimmt fast täglich zu und reicht bis zu am Körper tragbaren Rechnern (engl.: wearable computer) […]. Solche persönlichen Informationshilfsmittel […], die dem Benutzer bald jederzeit und überall durch das Internet einen unbeschränkten Informationszugang ermöglichen, könnten bald den derzeit dominierenden PCs ein ähnliches Schicksal bescheren wie einst diese den Großrechnern und Minicomputern.“ (Hansen/Neumann, 2005 a, S. 54)

Somit lassen sich fünf signifikante Computertypen identifizieren, die als Repräsentan­ten für jeweils eine Computerära herangezogen werden können (vgl. Hansen/Neumann, 2005 a, S. 58):

- Großrechner
- Minicomputer
- Workstation
- PC
- Persönliche Informationshilfsmittel

Diese fünf Computerären und ihre jeweiligen typischen Merkmale sind in Tab. 1 konkreti­siert.

Tab. 1: Computerären und ihre typischen Merkmale (vgl. Hansen/Neumann, 2005 a, S. 58)

Abbildung in dieser Leseprobe nicht enthalten

Bemerkenswert sind dabei zwei Umstände: Zum einen dauert ganz offensichtlich die dominante Ära des PCs weiter an. Des Weiteren hat vor einigen Jahren die Etablierung neuartiger persönlicher Computer (bei Hansen/Neumann, 2005 a, S. 54 als persönliche Informationshilfsmittel bezeichnet) begonnen. Diese persönlichen Informationshilfsmit­tel weisen Eigenschaften von ubiquitären Computern im Sinne der Vision Ubiquitous Computing auf: Sie können mobil, vernetzt und permanent online sein und stehen einer Person in größerer Menge, jederzeit und jederorts zur Bewältigung ihrer individuellen Aufgaben zur Verfügung. Sie haben sich zwar bereits als Ergänzung zu PCs etabliert, doch aktuell haben sie noch keine dominante Stellung eingenommen und daher ist zu hinterfragen, ob diesbezüglich bereits von einer neuen Computerära gesprochen wer­den kann. Allerdings gilt es mit Blick auf die Historie zu berücksichtigen, dass derartige Dominanzwechsel bei der Einführung von Großrechnern, Minicomputern und Worksta­tions ebenfalls nicht abrupt erfolgten, sondern mehrjährig andauernde Übergangspha­sen benötigten. Untermauert wird dies durch die sich großteils überlagernden Zeit­spannen der jeweiligen Computerären, die der Tab. 1 (S. 16) zu entnehmen sind.

3.2 Mikroelektronik

3.2.1 Einsatzmöglichkeiten von Halbleiterbauelementen

Die Mikroelektronik ist ein „Zweig der Elektronik, der sich mit der Entwicklung und Her­stellung hoch verdichteter und miniaturisierter integrierter Schaltkreise befasst“ (Mikro­elektronik, 2006 a). Integrierte Schaltkreise werden auch Halbleiterbauelemente, Halbleiterplättchen oder Chips genannt. Sie bilden die Grundlage eines jeden PCs und werden in ihnen in Form von Speicherchips (z.B. als Arbeitsspeicher) und Prozessor­chips (z.B. als Mikroprozessoren) verbaut (vgl. Hansen/Neumann, 2005 a, S. 30 ff.). Des Weiteren existieren so genannte Ein-Chip-Computer, bei denen „eine vollständige Zentraleinheit auf einem einzigen Chip integriert“ ist (Hansen/Neumann, 2005 a, S. 43). Eine Zentraleinheit wiederum wird definiert als eine grundlegende Funktionseinheit eines Computers, die aus mehreren Baueinheiten besteht (z.B. aus einem oder mehre­ren Mikroprozessoren und Zentralspeicher) und die von außen durch die Eingabeein­heit aufgenommene Informationen interpretieren, umsetzen, aufbewahren und danach an die Ausgabeeinheit eines Computers weiterreichen kann (vgl. Hansen/Neumann, 2005 a, S. 21 ff.).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 5: Übersicht der Halbleiterbauelemente (Hansen/Neumann, 2005 a, S. 44)[7]

Die Verwendungsmöglichkeiten von Ein-Chip-Computer sind vielfältig: Sie „dienen ei­nerseits als so genannte Mikrocontroller […] zur Überwachung und Steuerung von Prozessen oder Umweltbedingungen. Andererseits werden sie in Chipkarten integriert, die als Ausweise, Kreditkarten usw. ausgegeben werden.“ (Hansen/Neumann, 2005 a, S. 43) „Mikrocontroller kommen in allen möglichen Geräten, wie zum Beispiel Kame­ras, Fernsehern, Stereoanlagen, Waschmaschinen, Autos usw. zum Einsatz. Ihre Festwertspeicher, die Kapazitäten bis zu einem MB[8] erreichen, dienen zur Aufnahme der speziellen Gerätesteuerungsprogramme. Die Schreib-/Lesespeicher sind hingegen in ihrer Kapazität im Allgemeinen auf wenige Kilobytes beschränkt.“ (Hansen/Neumann, 2005 a, S. 43 f.) Parallel zu diesen flexibel einsetzbaren Steuer­einheiten gibt es sehr spezifische Mikrocontroller, „beispielsweise für die Telekommu­nikation, Tastaturbedienung, Signalverarbeitung, Videobearbeitung usw. Weil nur die für die jeweilige Aufgabe nötigen Konstruktionsmerkmale realisiert werden, sind Mikro­controller relativ kostengünstig.“ (Hansen/Neumann, 2005 a, S. 44)

3.2.2 Produktion von Siliziumchips

Chips werden unter Reinraumbedingungen gefertigt und als Rohstoff dient das relativ kostengünstige Halbmetall Silizium, also gereinigter Quarzsand, der auf mehr als 1.400 °C erhitzt und dabei verflüssigt wird. In diese Flüssigkeit wird ein bleistiftgroßer Kristal­lisationskern aus Silizium eingetaucht und kontrolliert herausgezogen. Während des­sen bildet sich ein superreiner monokristalliner Siliziumstab, der je nach Verarbei­tungsgeschwindigkeit ca. 20 bis 30 cm Durchmesser und ca. 2 Meter Länge umfasst. Dieser Siliziumstab wird nach dem Erkalten in dünne Scheiben zersägt (so genannte Wafer), deren Oberflächen poliert werden und Platz für ca. mehrere hundert bis tau­send Chips bieten. Auf die Wafer werden innerhalb mehrerer Wochen und in einigen hundert Arbeitsschritten die mikroelektronischen Schaltungen mittels Lithographie schichtweise aufgebracht. Die so erzeugten Chips weisen Linienbreiten von nur noch 45 Nanometer Größe auf (vgl. Kapitel 3.6 Miniaturisierung, S. 44) und die nötigen Arbeits­abläufe sind zum Teil sehr komplex. Die Herstellung von Siliziumchips gilt daher und auch auf Grund der hohen Investitionen in Forschung und Entwicklung als eine Spitzentechnologie (vgl. Hansen/Neumann, 2005 a, S. 31 f. und Intel, 2006 a).

Die prinzipielle Verwendung des Rohstoffs Silizium ist nicht unantastbar und Alternati­ven stehen auf dem Prüfstand: Die integrierte Optoelektronik z.B. versucht elektrische Leitungen durch optische zu substituieren und so die Signalübertragungsgeschwindig­keit innerhalb der Chips zu erhöhen. Und die organische Elektronik erforscht neue elektrische Schaltungen auf Basis von organischen und metallischen Stoffen, die auf organischen Substraten in Dünnschichttechnik aufgebracht werden (vgl. Mikroelektro­nik, 2006 b und Optoelektronik, 2006). „Häufig wird der Einsatz von Biotechnik als Er­satz der Siliziumtechnik diskutiert, über die prinzipiell Speicherstrukturen auf Moleku­larebene möglich sind („Biochips“ aus organischen Molekülen).“ (Hansen/Neumann, 2005 b, S. 68) Doch noch existieren keinerlei für die Massenproduktion taugliche Alter­nativen zum Quarzsand und somit kann Hansen/Neumann beigepflichtet werden: „Eine Ablösung der derzeitigen Siliziumtechnik […] ist nicht in Sicht.“ (Hansen/Neumann, 2005 b, S. 68)

3.2.3 Rechenleistung

Seit mehreren Jahren werden Computer tendenziell leistungsfähiger und somit steht zunehmend mehr Rechenleistung zur Verfügung. Die Leistungsfähigkeit von Chips respektive Computern kann durch verschiedene Messungen ermittelt und mit unter­schiedlichen Kennzahlen ausgedrückt werden (vgl. Hansen/Neumann, 2005 a, S. 45 f.):

- Anzahl möglicher Gleitkommaoperationen pro Sekunde (Floating Point Operations per Second, FLOPS)
- Vergleichsmessungen (Benchmarks)
- Anzahl der innerhalb einer Sekunde ausführbaren Prozessorbefehle (Millionen In­struktionen pro Sekunde, MIPS)
- Anzahl der Transistoren pro Chip (Integrationsgrad)

Diese Indikatoren werden im Folgenden beschrieben und dazu genutzt, den Trend zu mehr Rechenleistung zu verdeutlichen.

3.2.3.1 FLOPS

Bei Rechnersystemen wird für die Darstellung von Kommazahlen am häufigsten die Gleitkommadarstellung verwendet und die Kennzahl FLOPS definiert die Anzahl der Gleitkommaoperationen, die ein Rechner innerhalb von einer Sekunde ausführen kann. Damit eignet sich diese Kennzahl für rechenintensive Anwendungen, die üblicherweise in wissenschaftlichen bzw. mathematisch orientierten Aufgabengebieten (z.B. im tech­nischen Bereich, bei der Entscheidungsunterstützung etc.) vorkommen (vgl. Hansen/Neumann, 2005 a, S. 45).

3.2.3.2 Vergleichsmessungen

Standardisierte Vergleichsmessungen (so genannte Benchmarks) werden durchgeführt um die Leistung von Computern transparent und damit komparabel zu machen (vgl. Hansen/Neumann, 2005 a, S. 45 f.). Laut Hansen/Neumann dient ein Benchmark(test) „zur Leistungsvermögensanalyse von Rechnern. Er besteht aus Programmen, deren Ausführungszeiten zu Vergleichszwecken von Teil- oder Gesamtsystemen gemessen werden. Standardbenchmarks sind künstliche, das heißt, nicht in der üblichen Praxis verwendete Vergleichsprogramme, die den Vorteil besitzen, dass entsprechende Leistungsdaten von einer Vielzahl von Rechnern vorliegen können.“ (Hansen/Neumann, 2005 a, S. 46) Es gibt Benchmarks sowohl für Hardware als auch für Software und damit stellen standardisierte Vergleichsmessungen einen umfassen­deren Ansatz dar, als es bei den rein auf die Hardware bezogenen Kennzahlen (wie z.B. der Anzahl der Transistoren pro Chip) der Fall ist. Brenner/Lemke führen hierzu aus: „Mittlerweile ist der Aufbau von Prozessoren sehr komplex, so dass die Messung der Leistungsfähigkeit nicht mehr auf eine einzelne Kennzahl ausgerichtet werden kann. Heute werden, abgestimmt auf die einzelnen Prozessor-Familien und gesamte Systeme von Computer [sic], umfangreiche Benchmarks durchgeführt. Diese Bench­marks sind Programme, bei denen standardisierte Aktionen für unterschiedliche Pro­zessor-Familien und Systeme gleichartig ablaufen. Beispielsweise existieren Bench­marks zum Testen der Leistungsfähigkeit bei Nutzung von Office-Anwendungen. Das Ziel dieser Benchmarks ist es, ein einheitliches Maß zur Vergleichbarkeit unterschiedli­cher Prozessor-Familien und Systemen zu definieren. Diese werden häufig in Form eines Punktwerts oder Performance-Index als Ergebnis durchgeführter Benchmark [sic] angegeben.“ (Brenner/Lemke, 2003, S. 945 f.)

Ein bekannter Anbieter von Vergleichsmessungen ist die Standard Performance Eva­luation Corporation (SPEC). Dabei handelt es sich um eine Non-Profit-Organisation, die von zahlreichen namhaften Computerhard- und -softwareproduzenten (wie z.B. Apple, IBM oder Intel) getragen wird und als relativ neutral gilt. So genannte SPEC-Kennzahlen gibt es für den Leistungsvergleich von z.B. Prozessoren, Grafikkarten, Mailservern, Webservern, Fileservern und Supercomputern (vgl. SPEC, 2006). Aus Platzgründen kann auf die verschiedenen SPEC-Kennzahlen und die zahlreichen Ein­flussgrößen (wie z.B. Taktraten, Adressbusbreiten oder Cachegrößen) nicht detaillier­ter eingegangen werden. Es kann allerdings der Trend konstatiert werden, dass neuere Computersysteme in der Regel auch bessere SPEC-Werte erreichen und der langfris­tige Trend eindeutig in Richtung höhere Rechenleistung geht (vgl. Hansen/Neumann, 2005 b, S. 75 f., S. 81).

3.2.3.3 MIPS

MIPS ist eine Größe, welche die Anzahl der innerhalb einer Sekunde ausführbaren Prozessorbefehle beschreibt. Allerdings ist diese Kennzahl mit Bedacht zu verwenden, denn unterschiedliche Software kann bei völlig identischen Chips unterschiedliche MIPS-Werte zum Ergebnis haben. „Da Maschinensprachen von Prozessortypen unter­schiedlicher Architektur […] oft stark differierende Befehlssätze aufweisen […], ist ein Vergleich reiner MIPS-Zahlen meist nicht besonders aussagekräftig.“ (MIPS, 2006)

Die historische Entwicklung der MIPS pro Chip bestätigt den Trend, dass neuere Pro­zessoren tendenziell leistungsfähiger sind. „Die ersten Prozessoren gegen Ende der 70er-Jahren [sic] verfügten über eine Leistungsfähigkeit kleiner als 1 MIPS. Bereits Mitte der 80er-Jahre besaßen Personal Computer eine höhere Leistungsfähigkeit als Grossrechner [sic]. Somit ist die Leistungsfähigkeit innerhalb von 15 Jahren um mehr als den Faktor 200 gestiegen […].“ (Brenner/Lemke, 2003, S. 945 f.) Abb. 6 (S. 22) verdeutlicht diese Entwicklung.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 6: Entwicklung der Rechenleistung in MIPS am Beispiel von Mikroprozessoren der Firma Intel (Moore, 2003, S. 20)

3.2.3.4 Die Integrationsdichte und das Gesetz von Moore

Wie bereits in Kapitel 3.2.2 Produktion von Siliziumchips (S. 19) erwähnt, sind Chips aus mehreren Schichten aufgebaut. „Auf der untersten Schicht eines Chips sind die Tran­sistoren integriert. Sie dienen zum Aufbau von Schaltern, die durch elektrische Impulse aus- oder eingeschaltet werden. Die Schaltzustände lassen sich durch die Binärzei­chen 1 (Schalter offen) und 0 (Schalter geschlossen) kennzeichnen.“ (Hansen/Neumann, 2005 a, S. 33) Die Termini Binärzeichen und Bit sind Synonyme und rechnerintern werden alle Zeichen durch Bitfolgen repräsentiert. Dabei werden Buchstaben üblicherweise durch jeweils acht Bits (= ein Byte) dargestellt. Ohne Tran­sistoren wäre diese Darstellung nicht möglich und folglich sind Transistoren obligatori­sche Bestandteile eines Chips.

Die Anzahl der Transistoren pro Fläche ist ein Gradmesser für die Integrationsdichte von elektrischen Schaltungen. „Durch technische Fortschritte wird der Integrationsgrad von Chips laufend erhöht. Das heißt, die Hersteller können immer mehr Schaltele­mente auf den Halbleiterplättchen unterbringen. Ende der 1950er Jahre hatten Chips bis zu 200 Transistoren, 2005 werden integrierte Schaltungen mit einer Milliarde Tran­sistoren produziert.“ (Hansen/Neumann, 2005 a, S. 33) Diese Entwicklung hat Gordon E. Moore bereits im Jahr 1965 auf Basis relativ weniger empirischer Daten prognosti­ziert und folgende These aufgestellt: Die Anzahl der Transistoren pro Chip kann etwa alle 12 Monate bei effektiv sinkenden Kosten verdoppelt werden. In einer Rede im Jahr 1975 änderte Moore die Verdopplungszeit von 12 auf 24 Monate und inzwischen ist seine Prognose als das „Gesetz von Moore“ bzw. „Mooresches Gesetz“ populär ge­worden (vgl. Moore, 1965 und Mooresches Gesetz, 2006 und Hansen/Neumann, 2005 a, S. 33 und Hansen/Neumann, 2005 b, S. 63). Die Abb. 7 zeigt die Voraussage von Moore, für die er lediglich die Werte für den Zeitraum der Jahre von 1959 bis 1965 zu Grunde legen konnte.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 7: Prognose der Entwicklung des Integrationsgrads (Moore, 1965, S. 3)

Die tatsächlich eingetretene Entwicklung der Anzahl der Transistoren pro (Intel-)Chip wird in Abb. 8 (S. 24) veranschaulicht.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 8: Entwicklung der Integrationsdichte am Beispiel von Chips der Firma Intel (Moore, 2003, S. 10)[9]

Die Entwicklung der Transistoren pro Chip zeigt eine nahezu gesetzmäßige Regelmä­ßigkeit auf und das Gesetz von Moore ist bis heute relativ genau eingetroffen, dennoch handelt es sich nicht um beispielsweise ein Naturgesetz. Die Verdoppelung der Anzahl der Transistoren pro Chip ist eine technische Leistung des Menschen und hat sich für die Chipindustrie mittlerweile zu einer sich zwingend selbst erfüllenden Prophezeiung entwickelt.[10] „Obwohl von Experten immer wieder physikalische Grenzen der Miniaturisie­rung prognostiziert wurden, hat das „Mooresche Gesetz“ bisher Gültigkeit behalten.“ (Hansen/Neumann, 2005 a, S. 33)

Die Entwicklung der Kosten pro Chip hat Moore im Jahr 1965 wie in Abb. 9 (S. 25) darge­stellt prognostiziert.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 9: Prognose der Transistorkosten (Moore, 1965, S. 2)

Die tatsächlich eingetretene durchschnittliche Preisentwicklung bei Transistoren der Firma Intel wird aus Abb. 10 (S. 26) deutlich. Ein Zusammenhang zwischen Preisentwick­lung und Massenproduktion sowie Absatzmenge ist evident (vgl. Moore, 2003, S. 3).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 10: Entwicklung der durchschnittlichen Transistorkosten am Beispiel der Firma Intel (Moore, 2003, S. 4)

Moore hat gemeinsam mit Andy Grove und Robert Noyce im Jahr 1968 die Firma Intel gegründet und mit seiner leitenden Tätigkeit für einen der weltweit führenden Chipher­steller die direkte Möglichkeit gehabt, sein Gesetz Realität werden zu lassen. „Tatsäch­lich wurde es zur zentralen Zielvorgabe der Chipindustrie“ (DIE ZEIT, 2005). Zudem hat es einen außerordentlichen Leitbildcharakter für Produzenten und Nachfrager, be­einflusst die Produktplanung und hält die entsprechenden Erwartungen der Kunden an die Industrie auf absehbare Zeit kontinuierlich hoch. Für die Anbieter von Computer­technologie ergibt sich aus diesem steten Bedarf nach immer neuer Hard- und Soft­ware eine komfortable Marktsituation und für die Forschung und Entwicklung eine ebenso klare wie technisch anspruchsvolle Zielvorgabe.

Aus dem Gesetz von Moore und der erhöhten Anzahl an Transistoren pro Chip resul­tiert eine höhere Rechenleistung bei geringeren Herstellungskosten pro Chip. Hieraus hat sich eine der Grundlagen für die Verbreitung von für weite Teile der Bevölkerung finanzierbaren und immer leistungsfähigeren PCs sowie anderen Rechnern ergeben (vgl. Abb. 3, S. 14). „As integrated circuit costs have decreased, they have made their way into modern products ranging from automobiles to greeting cards.“ (Intel, 2006 c)

Die Realisierung der Vision Ubiquitous Computing ist auf preislich erschwingliche und in Massen verfügbare Spezial-Chips angewiesen und mit der von Moore prognosti­zierten Entwicklungen der Integrationsdichte sowie der Chipkosten sind zwei wichtige Grundlagen gelegt.

3.2.3.5 Anmerkungen zur Messung von Rechenleistung

Im Mittelpunkt der Betrachtungen zur Messung von Rechenleistung steht das Leis­tungsvermögen der essenziellen Zentraleinheit, also der Hardware. „Die Rechnerleis­tung im engeren Sinn ist eine durch Mips, Flops, […] oder ähnliche Benchmarks kon­kretisierte Maßzahl der Geschwindigkeit eines Rechners, welche durch die Hardware der Zentraleinheit bestimmt wird.“ (Hansen/Neumann, 2005 a, S. 46) Doch bei den verschiedenen Messungen und Maßzahlen zur Rechenleistung ist es empfehlenswert einen sorgfältigen Blick auf die ihnen zu Grunde liegenden Details zu richten. Insbe­sondere bei der Transistorenanzahl und der Erhebung von MIPS bleibt der Einfluss der zum Betrieb der Zentraleinheit erforderlichen und damit offenkundig leistungsbeeinflus­senden Software weitgehend unberücksichtigt. Auch Hansen/Neumann machen auf die Eingeschränktheit der Aussagefähigkeit solcher Werte aufmerksam: „Kennzahlen wie Mips, Flops oder die SPEC-Benchmarks bieten nur einen ersten groben Anhalts­punkt für das Leistungsvermögen eines Rechners. Danach Computer zu vergleichen oder auswählen zu wollen, wäre so, als ob Sie sich beim Kauf eines Autos allein von der PS-Zahl[11] oder der Höchstgeschwindigkeit leiten lassen würden.“ (Hansen/Neumann, 2005 a, S. 47) Zur Verdeutlichung langfristiger Trends sind sie dennoch zweckdienlich und die Entwicklung zu mehr Rechenleistung konnte hierdurch dargelegt werden.

3.3 Datenspeicherungskapazität

Datenträger bilden die Grundlage für jede Speicherung (Schreiben) und spätere Wie­dergabe (Lesen) von Daten und somit auch für die Informationsverarbeitung per se. „Datenträger (Speichermedium; engl.: data carrier, storage medium) sind zur dauer­haften Aufnahme von Daten geeignete physikalische Medien.“ (Hansen/Neumann, 2005 b, S. 95) Ubiquitous Computing hätte die Durchdringung des Alltags mit zahlrei­chen Computern zur Folge, die jeweils unter verschiedenen Bedingungen Daten schreiben und lesen würden. Folglich würde der Bedarf nach Datenspeicherungskapa­zität eklatant ansteigen und die hinlängliche Verfügbarkeit von Datenträgern mit der jeweils geeigneten Bauform, Aufzeichnungsform, Lese- bzw. Schreibgeschwindigkeit, Speicherkapazität, Transportierfähigkeit, Lagerfähigkeit, Vernetzungsfähigkeit und Auf­zeichnungsfrequenz bei gleichzeitig adäquaten Anschaffungs- und Betriebskosten (vgl. Hansen/Neumann, 2005 b, S. 95 ff.) könnte einen kritischen Erfolgsfaktor für die Reali­sierung der Vision darstellen.

[...]


[1] PDA = Personal Digital Assistant

[2] Der Begriff dynabook steht für ein Computer-Konzept, das in den 1960er Jahren von der Firma Xerox entwickelt wurde und eine intuitive Computerbenutzung mittels einer grafischen Benutzeroberfläche zum Ziel hatte (vgl. Dynabook, 2006).

[3] vi ist der Name eines Texteditors für Unix-Rechner

[4] UbiComp = Ubiquitous Computing

[5] IT = Informationstechnologie

[6] Ubicomp = Ubiquitous Computing

[7] RAM = Random Access Memory,
ROM = Read Only Memory,
FROM = Factory Read Only Memory,
PROM = Programmable Read Only Memory,
EPROM = Erasable Programmable Read Only Memory
EEPROM = Electrically Erasable Programmable Read Only Memory

[8] MB = Megabyte

[9] Die Y-Achse zeigt die Anzahl der Dies pro Wafer. Der englische Begriff Die steht für einen Chip der sich noch auf dem Wafer befindet.

[10] Moore lag jedoch nicht immer richtig und hat die Entwicklung des Durchmessers der Wafer mit 52 Zoll im Jahre 2000 deutlich zu hoch prognostiziert (vgl. Moore, 2003, S. 12).

[11] PS = Pferdestärke

Ende der Leseprobe aus 110 Seiten

Details

Titel
Ubiquitous Computing
Untertitel
Eine humanzentrierte Technikvision
Hochschule
Hochschule der Medien Stuttgart  (Fakultät Information und Kommunikation)
Note
1,3
Autor
Jahr
2006
Seiten
110
Katalognummer
V79417
ISBN (eBook)
9783638800686
ISBN (Buch)
9783638803755
Dateigröße
2233 KB
Sprache
Deutsch
Schlagworte
Ubiquitous, Computing
Arbeit zitieren
Dipl.-Infw. (FH) Fabian Köppen (Autor:in), 2006, Ubiquitous Computing, München, GRIN Verlag, https://www.grin.com/document/79417

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Ubiquitous Computing



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden