Data Warehousing und Internet


Diplomarbeit, 1998

94 Seiten, Note: 0


Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Anhangverzeichnis

Abkürzungsverzeichnis

1 Die zunehmende Bedeutung des Internet für das Informationsmanagement
1.1 Aktuelle Entwicklung des Informationsmanagement
1.1.1 Traditionelle Informationssysteme versus aktuelle Informationssysteme
1.1.2 Data Warehousing als Ausweg aus dem Datenchaos
1.1.2.1 Klassische Merkmale von Data Warehouse – Daten
1.1.2.2 Die Integration der Daten in ein Data Warehouse
1.1.3 Bewertung des Data Warehousing
1.2 Die Internet – Technologie
1.2.1 Die Funktionsweise des Internet
1.2.2 Die Komponenten des Internet
1.2.3 Das World Wide Web
1.3 Ziele einer Verknüpfung der Internet – Technologie mit der Technologie des Data Warehousing

2 Integration der Internet – Technologie in ein Data Warehouse
2.1 Die Konzeption des Data Warehousing
2.1.1 Komponenten eines Data Warehouse
2.1.2 Organisatorische Aufbaumöglichkeiten eines Data Warehouse
2.1.3 Datenanalyse mit Online Analytical Processing (OLAP)
2.1.3.1 Anforderungen an ein OLAP konformes Werkzeug
2.1.3.2 Die Konzeption von OLAP
2.1.3.3 Typische Operationen des OLAP
2.1.3.4 Die Kategorien des OLAP
2.1.3.4.1 Mehrdimensionale Modellierung einer Datenbank mit dem Stern – Schemata
2.1.3.4.2 Mehrdimensionale Modellierung einer Datenbank mit dem Schneeflocken – Schemata
2.1.3.5 OLAP im Einsatz mit Internet Data Warehousing
2.1.4 Das Erkennen von Datenmustern mit Data Mining
2.2 Die Verknüpfung der Internet-Technologie mit einem Data Warehouse
2.2.1 Die Nutzung des Internet als Informationsquelle für ein Data Warehouse
2.2.2 Die Verknüpfung der Internet - Technologie mit einem Data Warehouse im Rahmen des Internet – Data Warehousing
2.2.2.1 Die Nutzung des Internet als Kommunikationsinfrastruktur für ein Data Warehouse
2.2.2.1.1 Phasen der strategischen Planung eines Data Warehouse
2.2.2.1.2 Planung der Data Warehouse – Organisation
2.2.2.2 Die Realisierung des dynamischen Zugriffs auf ein Data Warehouse über Internet
2.2.2.2.1 Die Abfrage des Datenbestandes eines Data Warehouse mittels Common Gateway Interface (CGI)
2.2.2.2.2 Die Abfrage des Datenbestandes eines Data Warehouse mittels Java Database Connectivity (JDBC)
2.2.3 Sicherheitsapekte, die bei der Realisierung einer Internet Data Warehouse – Lösung zu beachten sind
2.2.4 Beurteilung der Vorteilhaftigkeit einer Verbindung von Data Warehousing und Internet unter besonderer Berücksichtigung der sich dabei ergebenden Synergiepotentiale

Der Einsatz von Internet – Data Warehouse – Lösungen in der Praxis
3.1 Porträt des Unternehmens Information Advantage
3.2 Praxisbeispiele
3.2.1 Hintergründe für die Realisierung eines Internet Data Warehouse bei Land O´Lakes
3.2.2 Realisierung eines Terabyte-Plus – DW bei MasterCard International
3.2.3 Die Implementierung eines Internet – Data Warehouse bei Payserv Telekurs AG
3.2.3.1 Initialisierung und Aufgliederung des Projektes
3.2.3.2 Darstellung der Betriebsumgebung
3.2.3.3 Aktueller Stand des Projektes und weitere geplante Schritte

Literaturverzeichnis

Anhang

Abbildungsverzeichnis

Abbildung 1.1: Von Daten zu Entscheidungen

Abbildung 1.2: Auswirkungen des Informationsdefizits

Abbildung 2.1: Die Architektur eines Data Warehouse

Abbildung 2.2: Komponenten eines Data Warehouse

Abbildung 2.3: Data Marts

Abbildung 2.4: Zweistufige Rechnerarchitektur

Abbildung 2.5: Dreistufige Rechnerarchitektur

Abbildung 2.6: Typen der OLAP Analyse

Abbildung 2.7: Mehrdimensionales Datenmodell

Abbildung 2.8: Slice and Dice

Abbildung 2.9: „Drill“ – Operationen

Abbildung 2.10: Datenmodellierung mit dem „Stern - Schemata“

Abbildung 2.11: Datenmodellierung mit dem Scheeflocken – Schemata

Abbildung 2.12: Statische Erstellung von Berichten aus DW – Inhalten

Abbildung 2.13: Dynamische Erstellung von Berichten aus DW – Inhalten

Abbildung 2.14: Planungsmodell für ein Data Warehouse

Abbildung 2.15: Funktionale Organisation eines Internet – Data Warehouse

Abbildung 2.16: Sicherheitszonen

Abbildung 3.1: Einsatzbeispiele von Information Advantage

Abbildung 3.2: Verteilte Architektur von Information Advantage

Abbildung 3.3: Organigramm der Telekurs Gruppe

Abbildung 3.4: Projektplan des Data Warehouse Projektes

Abbildung 3.5: Beteiligte Projekteinheiten

Abbildung 3.6: Architektur des Projektes

Abbildung 3.7: Architektur der Hardware

Abbildung 3.8: Architektur der Software

Abbildung 3.9: Architektur der Daten

Abbildung 3.10: Betriebsumgebung

Tabellenverzeichnis

Tabelle 2.1: Kostenvorteile einer Web – Lösung

Tabelle 3.1: Vorhandene Systemkonfiguration

Tabelle 3.2: Auswahl an DW – Komponenten

Tabelle 3.3: Softwarearchitektur

Anhangverzeichnis

Anhang 1: Ebenen der Semiotik

Anhang 2: Arten von Data Warehouse – Daten

Anhang 3: Transmission Control Protocol/Internet Protocol

Anhang 4: Logische und Physische Datentransformation

Anhang 5: Typen von Metadaten

Anhang 6: Mitteilung an die Presse zur Firmenübernahme von IQ Software

Anhang 7: Weitere Projekte von Payserv

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Die zunehmende Bedeutung des Internet für das Informationsmanagement

Unter Datenmüll vergraben, meist verstreut über verschiedene Systeme eines Unternehmens, vergammeln wertvolle Informationen. Entsprechend verdichtet und aufbereitet, könnten sich durch die beim täglichen Betrieb an­fallenden Daten neue Verhaltensweisen ergeben. „So fallen bei einer Bank jede Menge ver­schiedenartiger Informationen über die Kunden an, etwa Kontoformen und –bewegungen, Sparformen und –aktivitäten, Kredite et cetera.“[1] Diese Informationen können ein Kundenprofil bilden, aus welchem sich wirksame Werbemaßnahmen ableiten lassen, „das aber auch hilft, über die Kreditfähigkeit entscheiden zu können“[2].

Fortune 500[3] aus den USA schätzen, daß lediglich ein Prozent aller gespeicherten Infor­mationen den Mitarbeitern und Entscheidungsträgern zugänglich ist. Eine Pro­blematik, die sich weiter verschärfen wird. Insbesondere der zunehmende Einsatz von Computer­systemen, sowie die Vernetzung zwischen Unternehmenseinheiten, aber auch der Siegeszug des Internet, insbesondere des World Wide Web (WWW), trägt zu einem weiteren Zuwachs an neuen Daten bei.[4]

Der Begriff Information gewinnt immer mehr an Bedeutung und kann in der heutigen Zeit als eigenständiger Produktionsfaktor angesehen werden.[5] Informationsmanagement als Schnitt­stelle zwischen informationsverarbeitenden Systemen und strategischer Entscheidungsfindung hat die Aufgabe, den im Hinblick auf das Unternehmensziel bestmöglichen Einsatz der Res­source Information zu gewährleisten.

1.1 Aktuelle Entwicklung des Informationsmanagement

Um Wissen zwischen Menschen übertragen zu können, wird es in eine Abfolge von Signalen kodiert.[6] Ein Signal ist der physikalisch wahrnehmbare Träger des Wissens, z.B. ein Buchstabe auf Papier oder eine Schallwelle für gesprochene Wörter. Mit der Kenntnis der Semantik der Signale kann der Empfänger den Inhalt einer Übermittlung entschlüsseln. Dies sind die Daten. Nimmt der Empfänger Daten auf, werden diese zu Wissen, welche für den Empfänger bzgl. seiner Aufgabe relevant oder auch völlig irrelevant sein können. An diesem Merkmal unterscheiden sich Daten von Informationen, so daß Daten auch als potentielle Informationen be­zeichnet werden können.[7]

Der Begriff Information wird in der Betriebswirtschaftslehre üblicherweise als zweckorientiertes Wissen definiert.[8] Die Zweckorientierung mißt sich daran, welches Wissen für die Erledigung einer be­stimmten Aufgabe „zur Erreichung eines Zweckes“[9] benötigt wird. Damit ist die Zweck­orientierung keine Eigenschaft des Wissens an sich, sondern leitet sich aus der vorgesehenen Verwendung des Wissens ab.[10]

Eine Information ist nur dann zweckgerichtet, wenn eine Entscheidung damit verbunden ist. Informationen sind demnach entscheidungsvorbereitend, d.h. ihr Wert bestimmt sich durch die Relevanz einer zu treffenden Entscheidung.

Der Begriff Management läßt sich verschiedenartig auslegen und wird in der Literatur in mehre­ren Varianten verwendet. Häufig werden die Begriffe Führung und Leitung als Synonyme ver­wendet.[11] Während funktionale Ansätze den Prozeß und die Aufgabe des Management be­schreiben, stehen beim institutionellen Verständnis die Personen und Personengruppen, die Aufgaben des Managements wahrnehmen, im Vordergrund.

„Die Bedeutung von Informationsmanagement (IM) als Management von Information, von Informations­systemen (IS) und von Informations- und Kommunikationstechnologie (IKT) wird unterschiedlich begründet.“[12] Produktivitätsgewinn, zentrale Aufgabe der Unternehmens­koordination, aber auch Bindeglied zwischen Unternehmensstrategie und der Nutzung von IKT, wird unter dem Begriff Informationsmanagement zusammengefaßt.[13] Der Zweck des IM besteht in der Erhöhung der Effizienz bzw. Effektivität, der von den Entscheidungsträgern zu treffenden Entscheidungen.

1.1.1 Traditionelle Informationssysteme versus aktuelle Informationssysteme

„Die Funktion des .. IS liegt nicht nur in der Erarbeitung der erforderlichen Informationen, sondern in der Bereithaltung und Gewährleistung der „Auffindbarkeit“ im Rahmen des soge­nannten „Storage and Retrieval Systems“.“[14] Der erweiterte Begriff der IKT, der mit der kürzeren Form IS gleichzusetzen ist, verdeutlicht den Zwillingscharakter von Information und Kommu­nikation, die sich gegenseitig bedingen.[15]

Es handelt sich um soziotechnische Systeme, welche zum Zweck der optimalen Bereitstellung von Information und Kommunikation nach wirtschaftlichen Kriterien eingesetzt werden. Alle IS fallen insofern in den Aufgabenbereich des IM, als daß IS die notwendigen Werkzeuge darstellen, um die Informationsversorgung im Unternehmen sicherzustellen.

Diverse Ansätze und Systeme zur Managementunterstützung, wie Chefinformationssystem (CIS), Decision Support System (DSS) bzw. Entscheidungsunterstützungssystem (EUS), Executive Information System (EIS) oder Group Decision Support System (GDSS), werden heute unter dem Begriff managementunterstützende Systeme (MUS) subsumiert.[16]

Die in den siebziger Jahren vorherrschende IBM–Mainframe Architektur wurde von den soge­nannten Mini - Computer – Plattformen, wie z.B. AS/400 und VAX/VMS abgelöst. In den späten achtziger und frühen neunziger Jahren entwickelte UNIX die Client-Server-Architektur. Mengen­orientierte Systeme, die auf funktionale Abläufe ausgerichtet sind und eine rationelle Abwicklung des operativen Tagesgeschäftes gewährleisten, werden als Transaktions­verarbeitungssysteme (TVS) oder Online Transaction Processing (OLTP) bezeichnet. Stand der Technik für diese Systeme sind heutzutage Relationale Datenbankmanagementsysteme (RDBMS), bei denen Daten in Tabellen verwaltet werden und erlauben, Geschäftsobjekte, -prozesse und Transaktionen abzubilden. „Relationale Datenverwalter sind darüber hinaus sehr fehlertolerant und lassen sich flexibel an die jeweilige Lastsituation anpassen (Skalierbarkeit).“[17] Die zunehmende Verbreitung solcher Systeme führt zu einer Vielzahl von Anwendungs­programmen und daraus resultierenden Datenbanken.

Trotz aller Veränderungen, insbesondere der Plattform, Architektur, Werkzeuge und Techno­logie, basieren jedoch noch immer sehr viele Anwendungen auf der ursprünglichen Mainframe – Umgebung. Die Abhängigkeit von den so gespeicherten Daten und die Probleme bei deren Überspielen auf eine neue Betriebssystemplattform oder in eine neue Anwendung, sind hierfür der Hauptgrund.

Diese Vielzahl an IS führt zu der „unbefriedigenden Situation, daß Unternehmensdaten in viele unterschiedliche Datengruppen aufgesplittet sind, die keine Verknüpfung miteinander haben und auch nicht zentral verwaltet werden.“[18] „Auch wenn in den meisten Unternehmen Systeme unterschiedlicher DV-Epochen koexistieren, fand eine enge Integration zwischen ihnen bisher kaum statt.“[19] Für den Bereich der Managementunterstützung bedeutet dies, daß die historisch gewachsenen, heterogenen und auf verschiedenen Systemplattformen verfügbaren IS, für Analysen und Auswertungen äußerst ungeeignet sind, da deren Resultate infolge der inkonsistenten Datenbestände äußerst fragwürdig erscheinen.[20]

Die Lösung dieses Datenchaos kann ein Data Warehouse (DW) sein. „Als zentrales Datenlager sammelt es in regelmäßigen Intervallen Informationen aus den operativen Systemen, konso­lidiert sie, filtert Unwichtiges heraus, ordnet die Daten nach Themen und zeigt mit Hilfe von Analysewerkzeugen Relevantes an.“[21]

1.1.2 Data Warehousing als Ausweg aus dem Datenchaos

Das Scheitern bisheriger MUS hat zu einer neuen Entwicklung im Bereich der Entscheidungs­unterstützung geführt. Data Warehousing gilt jetzt als Inbegriff für erfolgreiche MUS Implemen­tierungen. „Im Unterschied zu herkömmlichen Management-, Decision-Support- und Executive-Informations-Systemen, die einem ausgewählten Anwenderkreis vorbehalten sind, ist das Data-Warehouse für jeden Nutzungsberechtigten zugänglich.“[22]

Die Firma IBM präsentierte das Konzept eines unternehmensweiten Datenpools erstmals 1988 unter dem Namen European Business Information System (EBIS).[23] Die Integration der Daten unterschiedlicher Systeme und Plattformen in eine geeignete Datenbasis, sollte über eine ein­heitliche Schnittstelle gewährleistet werden und ausschließlich für Auswertungszwecke zur Verfügung stehen. Das DW speichert zusätzlich zur Datenhaltung im operativen System. „Das ist notwendig, denn das direkte Zugreifen auf operative Systeme zwecks Analyse bereitet eine Reihe von Problemen.“[24]

Die Struktur eines DW weist gegenüber der operativen Datenhaltung Besonderheiten auf, die aus den jeweils unterschiedlichen Aufgaben und Zielsetzungen resultieren: Das DW dient der Auswertung und Gesamtbetrachtung eines Datenbestandes, während die operativen Systeme für die Erledigung einer konkreten Fachaufgabe konzipiert wurden.

1.1.2.1 Klassische Merkmale von Data Warehouse – Daten

Das DW beinhaltet alle Daten, auf deren Basis wettbewerbsrelevante Entscheidungen getroffen werden können.[25] Nach Inmon kann ein DW als subjektorientierte, integrierte, zeitlich veränder­liche, dauerhafte Datensammlung bezeichnet werden.[26]

- Subjektorientierung

Im Gegensatz zu TVS werden die Daten in einem DW nicht nach betrieblichen Prozessen (z.B. Produktion, Verkauf), sondern nach Geschäftsobjekten (z.B. Produkte, Kunden) abgebildet. Diese Form der Datenstrukturierung orientiert sich an betrieblichen Sachverhalten, welche für das Handeln und den Erfolg eines Unternehmens bestimmend sind. Daten des selben Subjekts werden durch einen gemeinsamen Schlüssel (z.B. Kundennummer) miteinander verbunden.

Als Abgrenzung zu OLTP - Systemen werden nicht alle Daten von operativen Systemen über­nommen, sondern nur diejenigen, welche für die Informationsbereitstellung notwendig sind. Diese Selektion trägt dazu bei, daß die Gefahr eines Information - Overload vermieden, bzw. verringert werden kann.[27]

- Datenintegration

Unter dem Begriff Datenintegration versteht man die Überführung operativer Daten in ein ein­heitliches Bezeichnungs- und Datenformat, wodurch Daten verschiedener Systeme genutzt werden können. Dieser Eigenschaft wird eine große Bedeutung zuteil, da sie mittels der Meta Datenbank und entsprechender Transformationswerkzeuge eine einheitliche Konvention und Konsistenz herbeiführt und folglich eine homogene Sicht auf das DW ermöglicht.[28]

- Zeitraumbezug / Konstanz

In operativen DV-Systemen gespeicherte Daten spiegeln jeweils den aktuellen Wert der Daten wider. Diese Form der Datenhaltung ist allerdings für Auswertungen oder Analysen nur von geringem Nutzen, da der Zeitbezug der Daten nicht ersichtlich wird. Aus diesem Grund werden die Daten in einem DW Zeitperioden zugeordnet.[29]

In einem DW gespeicherte Daten können somit unterschiedliche Werte zu verschiedenen Zeit­punkten dokumentieren. Im Gegensatz zu OLTP - Systemen, bei denen gespeicherte Daten maximal über einen Zeitraum von 12 – 24 Monate gespeichert werden, erfolgt in einem DW eine Speicherung von 5 – 10 Jahren. Folglich können die Daten eines DW für Analyse- oder Trendberechnungen herangezogen werden, da der Zeitbezug der Daten nicht verloren geht.[30]

- Dauerhaft

Im Unterschied zu OLTP – Systemen werden die Daten in einem DW nicht gelöscht oder ver­ändert, sondern stehen dauerhaft für Auswertungen zur Verfügung. Der Zugriff auf diese Daten erfolgt ausschließlich lesend, um die Nicht-Volatilität zu gewährleisten.[31]

1.1.2.2 Die Integration der Daten in ein Data Warehouse

Die in einem DW gesammelten Daten sind so verständlich darzustellen, daß sie zu aussage­fähigen Informationen verarbeitet werden können (siehe Abbildung 1.1). [32]

Hierzu gehören, neben der Katalogisierung in Form von Metadaten, ihre inhaltliche Integration, also die konsistente Darstellung im gesamten Data Warehouse. Dem Benutzer soll der Daten­zugriff und die Datenauswertung möglichst leicht gemacht werden. Notwendige Trans­formationen müssen also bereits erfolgt sein, wenn der Anwender mit den Daten arbeitet, wes­halb der Integration von Daten besondere Aufmerksamkeit geschenkt werden muß. [33]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1.1: Von Daten zu Entscheidungen

Quelle: i. A. an Tanler (1997), The Intranet Data Warehouse, S. 5

Grundlage für ein Data Warehouse sind die operativen Datenbestände der Anwendungs-systeme. [34] Diese Quelldaten können aus den unterschiedlichsten Anwendungen bzw. deren Datenspeicher gewonnen werden. Mögliche interne Datenquellen können u.a. sein:

- Planungs- und Steuerungssysteme,
- Vertrieb- und Marketinganwendungen, sowie
- Controlling- und Personalinformationssysteme.

Darüberhinaus fließen nicht nur aktuelle Daten aus OLTP Systemen in ein DW ein, historische Daten, sowie bereits aufbereitete und verdichtete Daten, sind für die Integration interner Daten­bestände von wesentlicher Bedeutung. [35]

Neben den internen Daten, gewinnt die Einbeziehung von externen Daten zur Entscheidungs­unterstützung an Einfluß. Externe Daten, die für die Entscheidungsfindung von Interesse sind, können u.a. Informationen von Meinungsforschungsinstituten, Branchen- oder Wettbewerbs­analysen und Aktienkurse sein. Sie sollen dazu beitragen, das eigene Unternehmen mit anderen in Form von Markt- oder Performanceanalysen zu vergleichen. In diesem Zusammen­hang spielt auch das Internet eine wesentliche Rolle, da diese Informationen in zunehmendem Maße über dieses Medium bequem zugänglich sind.

1.1.3 Bewertung des Data Warehousing

Das DW hat gegenüber den bisherigen Konzepten von MUS den Vorteil, daß es nicht auf einen engen thematischen Bereich bereitgestellter Daten beschränkt ist, sondern ein Konzept oder eine Infrastruktur darstellt, mit deren Hilfe unternehmensweite Entscheidungen getroffen werden können.[36]

Mit dem Aufbau eines DW können Organisationen nicht nur den internen Entscheidungsprozeß verbessern, sondern auch ihre operativen Alt – Applikationen vor Reorganisationen und Neu­konzeptionen schützen. Dies erweist sich vor allem in der heutigen kostenintensiven Situation als Vorteil, da Fehleinschätzungen und Fehlinvestitionen vermieden werden können.

Für die Entwicklung und Umsetzung eines Data Warehouse – Konzeptes gibt es keine allgemein­gültigen Aussagen bezüglich des benötigten Aufwandes. Hard- und Software­ausstattung, Personalkosten und Lizenzgebühren lassen jedoch schnell höhere Millionen­beträge auflaufen.[37]

Nachteil heutiger DW Systeme ist die Bereitstellung aufbereiteter Daten für möglichst viele Entscheidungsträger. Die vorherrschende DW–Infrastruktur, in Form von Frontend– Anwendungen, wird den Bedürfnissen der Informationsbereitstellung nicht gerecht, da lediglich 10-20 % der Entscheidungsträger über entsprechende Einrichtungen verfügen.[38]

Um einer breiten Anwenderschicht Vorteile des DW kostengünstig zur Verfügung zu stellen, sind neue Wege erforderlich. Die Internet – Technologie verspricht hier neue Impulse.

1.2 Die Internet – Technologie

Das Internet stellt sich heute als Vernetzung von Computern bzw. von Computer-(Teil-) Netzen dar, die das Kommunikationsprotokoll TCP/IP[39] verwenden und bestimmte Funktionalitäten in Form bestimmter Anwendungssysteme oder Dienste anbieten oder abfragen. Auf dieser Basis realisiert es die globale Vernetzung von Anwendern und die globale Vernetzung von Informationen.

Die erste Realisierung des Internet- Konzeptes erfolgte 1969 durch den Zusammenschluß von vier Knotenrechnern, welche durch Remote Control gesteuert wurden. Dieses Netzwerk, welches vom Pentagon den Namen ARPANET[40] erhielt, kann als Quelle der heutigen Form des Internet bezeichnet werden.[41] Anfang der achtziger Jahre spaltete sich der militärische Teil des Netzes, das sogenannte MILNET, vom ARPANET ab.

Mit zunehmender Popularität des Internet begannen einige Firmen die Eigenschaften des Inte­rnet in ihre interne Netzwerkumgebung zu integrieren. Das Ergebnis sind Intranets, Internet – Technologien, wie Web Server und E-Mail, innerhalb eines abgeschlossenen Firmen­netzwerkes.[42]

1.2.1 Die Funktionsweise des Internet

Der Kommunikationsstandard vom ARPANET war das Network Control Protocol (NPC), daß 1982 mit fortschreitender Technik durch Einführung eines besseren Standards, dem TCP und dem IP, ersetzt wurde.

Die Funktionsweise des Internet beruht auf dem bereits in der betrieblichen Datenverarbeitung angewandten Client/Server Prinzip.[43] Merkmal dieser Architektur ist die Bereitstellung von Infor­mationen / Anwendungen auf Servern, welche durch Clients angefordert werden können.

Im Gegensatz zu bisherigen Client/Server Lösungen, bei denen Großteile der Applikationen auf lokalen Clients installiert sind (fat clients), werden bei der Internet Architektur alle abrufbaren Daten serverseitig gehalten. Clients sind hier lediglich für die Visualisierung oder das Ausführen von übertragenen Daten zuständig (thin clients), was auch als Network Centric Computing (NCC) be­zeichnet wird.[44]

Die wichtigste Plattform für die Kommunikation zwischen verschiedenen Rechnern bildet das Übertragungsprotokoll TCP/IP. Um die Kommunikation zwischen verschiedenen Systemen zu gewährleisten, basiert das TCP/IP auf einem Schichtenmodell. Es besteht aus kompatiblen oder interoperablen Protokollen, die übereinander angeordnet sind. Die unterste Schicht besteht aus dem Übertragungsmedium, also der physikalischen Ebene. Die Network Interfaceschicht beinhaltet Übertragungsmechanismen und befindet sich unter der Inter­network/ Gateway - Schicht, die wiederum das zur Übertragung notwendige Protokoll (IP) einschließt. Adressierung und Fragmentierung jedes einzelnen Päckchens wird vom IP über­nommen, wobei es die IP – Adresse verwendet, um den Transport an den Zielrechner zu ermög­lichen. Jeder Rechner im Netzverbund besitzt eine eigene IP – Nummer, die einen bestimmten Rechnernamen kodiert. Die nächste Schicht bezeichnet die Transportschicht, gefolgt von der Applikationsschicht, deren Aufgabe es ist, eine logische Verbindung zu ermöglichen, wobei das TCP die Funktion der Interprozesskommunikation kontrolliert.[45]

1.2.2 Die Komponenten des Internet

Während Remote - Computing, die Fernsteuerung von Computern, als erster Internet-Dienst bezeichnet werden kann, sind im Laufe der Jahre weitere Internet-Services entstanden. Diese Entwicklung ist bis heute nicht abgeschlossen.[46]

Die am häufigsten genutzten Dienste sind Gopher, Newsgroups, E-Mail, File-Transfer und das WWW.

- Gopher

Gopher steht für einen Dienst, der „unterschiedliche im Internet verfügbare Ressourcen unter einer hierarchischen Struktur verfügbar macht.“[47] Gopher ist vergleichbar mit einer Baumstruktur, die aus Verweisen auf andere Baumstrukturen, andere Verzeichnisse, andere Dateien und andere Texte besteht. Mithilfe dieses hierarchisch gegliederten Menüs, ist das Suchen und/oder die Übertragung von Informationen oder Dateien möglich.

Da der Dienst des WWW ähnliche Suchmaschinen anbietet, hat Gopher keine große Bedeu­tung im Bereich des Internet.[48]

- Newsgroups

Eine Newsgroup ist eine Art Diskussionsforum, die jedem Internet-Benutzer die Möglichkeit des Lesens und Schreibens themenorientierter Berichte bietet. Diese öffentlichen Diskussionsforen sind ähnlich einem schwarzen Brett und hierarchisch gegliedert.

- File-Transfer

Zur Übertragung von Dateien zwischen Anwendern des Internet wird das File Transfer Protokoll (FTP) bereitgestellt. Diese „frühe Internet-Technologie hat bis heute nur wenig von ihrer ur­sprünglichen Bedeutung eingebüßt.“[49]

- E-Mail

Der E-Mail - Dienst ist für das Versenden von elektronischer Post im Internet zuständig. Mit einer E-Mail - Adresse ist der Benutzer in der Lage Texte, Graphiken, sowie Ton und Videodokumente an andere Adresseninhaber zu versenden oder zu erhalten. E-Mail ist der am weitesten verbreitete Dienst im Internet.[50]

Für den Bereich des Data Warehousing sind insbesondere die Möglichkeiten des WWW von ausschlaggebender Bedeutung, weshalb dieser Dienst in einem separaten Gliederungspunkt dargestellt wird.

1.2.3 Das World Wide Web

Der Ursprung des WWW, auch unter dem Namen W3 bekannt, geht auf Forschungsarbeiten des Centre Europeen de Recherches Nucleaires (CERN) in Genf zurück. Das Ziel der Arbeiten be­stand darin, ein, im Gegensatz zu bisherigen Internet-Diensten einfaches Kommunikations­system aufzubauen. Dieses sollte sowohl internen als auch externen Mitarbeitern den Zugriff auf Forschungsarbeiten ermöglichen.[51]

Für die Realisierung dieses Projekts griff man auf das bereits existierende Hypertext - Prinzip zurück, welches eine Verbindung von Text- und Grafikelementen ermöglicht. Auf Basis dieser Technologie wurden am CERN plattformunabhängige Komponenten entwickelt, die im folgen­den beschrieben werden:

- Hypertext

Wesentliches Merkmal dieser Technologie besteht in der Verbindung von Seiten, Grafiken oder anderen Informationen, mittels sog. Hyperlinks, die auf weitere Hypermedien verzweigen können.

Für die Erzeugung von Hypermedia - Seiten wird die Hypertext Markup Language (HTML) ver­wendet. Der Vorteil der Hypertext - Sprache liegt zum einen in dem geringen Speicherbedarf einer HTML-Seite, sowie in der Plattformunabhängigkeit dieser Technologie. Desweiteren befähigt Hypertext den Benutzer, Informationen in einem nicht linearen Ablauf zu ergründen, was der Abfolge der Gedankengänge entspricht.[52]

Die HTML Sprache eröffnet somit auch dem DW neue Impulse, da Führungskräfte häufig nicht-numerische Informationen benötigen, welche verwaltet und mit anderen Informationen verknüpft werden müssen.[53]

- Hypertext Transfer Protocol

Die Übermittlung von Hypermedia zwischen WWW-Server und WWW-Client wird mittels Hypertext Transfer Protocol (HTTP) realisiert. Im Rahmen der Dienstarchitektur für verteilte Systeme baut das HTTP auf dem verbindungsorientierten, paketvermittelnden Transport­schichtprotokoll TCP/IP auf und ermöglicht somit eine synchrone Kommunikation.

- Browser

Browser fungieren als Schnittstelle zwischen WWW-Client und Internet und sind für die Dar­stellung von Hypermedia zuständig. Neben diesen Funktionen entwickeln sich Browser zu einer umfassenden Applikation, welche Internet-Dienste, wie E-Mail, Newsgroups, FTP usw., in einem Produkt vereinen. Diese Entwicklung wird sich noch weiter verstärken, so daß davon ausgegangen werden kann, daß sich Browser zu einer universellen und plattformunabhängigen Schnittstelle für verschiedenste Anwendungen entwickeln.[54]

- Java

Java ist eine von Sun Microsystems Inc. entwickelte, objektorientierte, plattformunabhängige Programmiersprache, die aus den drei Komponenten Java-Script (JS), Java-Applet (JA) und Java-Applikationen besteht.[55]

JS wird als Erweiterung der HTML-Sprache angesehen, da JS - Elemente direkt in HTML eingebunden werden. Hauptanwendungsgebiet von JS besteht in der Evaluierung von Benutzereingaben beim WWW-Client, um unnötigen Netzverkehr zu vermeiden und damit die Ausführungsgeschwindigkeit zu steigern.

Im Gegensatz zu JS sind JA kleine Programmcodes, welche über das Internet in den Speicher des WWW-Client geladen werden. Diese Programme werden während der Laufzeit interpretiert und auf dem Zielrechner nach erfolgreichem Laden gestartet.

Neben der Programmierung kleiner JA können auch komplette Anwendungen mittels Java pro­grammiert werden. Sie generieren komplexe Oberflächen auf der Client-Seite, die sog. Java – Applikationen.

Der Hauptvorteil der Java – Technologie liegt in der Portabilität der Anwendungen, da diese un­abhängige Betriebssystem- und Prozessorarchitekturen sind. Performance- und Sicherheits­aspekte bilden hierfür die Hauptkritikpunkte.

- ActiveX

Die Antwort der Microsoft Corp. auf die große Popularität von Java heißt ActiveX, und ist weni­ger eine Programmiersprache, als vielmehr eine Komponententechnologie.[56] Im Gegensatz zu Java enthalten ActiveX – Controls den Binärcode ausführbarer Programme und sind dadurch in der Ausführung schneller. Da ActiveX – Controls in der Registrierungsdatei von Windows ein­getragen werden, sind Sicherheitsprobleme als Hauptnachteil dieser Technologie zu nennen. Zudem ist der Einsatz von ActiveX auf die Plattform von Windows beschränkt.[57]

1.3 Ziele einer Verknüpfung der Internet – Technologie mit der Technologie des Data Warehousing

Eine Verbesserung der Informationsbereitstellung kann als Hauptmotiv für die Implementierung eines DW angesehen werden.[58] Qualitative Verbesserungen werden durch eine Erhöhung der Informationssicherheit infolge einer konsistenten Datengrundlage erzielt, was folglich die Produktivität des Entscheidungsprozesses erhöht.[59] Quantitative Vorteile ergeben sich durch eine größere Menge an zur Verfügung stehenden, internen und externen Datenbeständen (siehe Abbildung 1.2).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1.2: Auswirkungen des Informationsdefizits

Quelle: o.V. (1995c), Data Warehousing, S. 6.

Durch eine Verbindung dieser Vorteile mit der Internet-Technologie können zudem Kosten-einsparungen sowie eine Vergrößerung des Benutzerkreises erzielt werden. Erhöhte Akzeptanz gegenüber getroffenen Entscheidungen und die Überwindung etwaiger Barrieren bei deren Umsetzung können hier die Folge sein.

Die Technologie des Internet ist mit der DW – Technologie eng verflochten. Beide arbeiten mit in Beziehung stehenden Themen des Informationsmanagement und der Informations-verbreitung:

Data Warehousing berücksichtigt den wertvollen Charakter von Daten, welche für OLAP strukturiert werden müssen, das Internet bietet eine neue Plattform für Kommunikation und Zusammenarbeit.

Ziel der vorliegenden Arbeit ist zum einen die Darstellung des DW - Konzepts, zum anderen eine mögliche Verbindung mit der Internet – Technologie aufzuzeigen. Nutzungsmöglichkeiten des Internet im Rahmen des Data Warehousing und die damit verbundenen notwendigen Planungsschritte bei der Realisierung eines Internet – DW sollen dargestellt werden. Sicherheitsaspekte, welche bei dieser Art des Data Warehousing eine noch größere Bedeutung erfahren, und Synergiepotentiale, die sich durch eine Verknüpfung der beiden Technologien ergeben, werden beleuchtet.

Der abschließende Teil beinhaltet ein Firmenporträt des Unternehmens Information Advantage sowie Praxisbeispiele. Diese Darstellung erfolgt anhand von Firmen, welche eine Information Advantage – Lösung im Einsatz haben oder bei deren Umsetzung sind.

2 Integration der Internet – Technologie in ein Data Warehouse

2.1 Die Konzeption des Data Warehousing

„Mit dem Begriff Data-Warehouse wird generell eine von den operationalen DV-Systemen isolierte Datenbank umschrieben, die als unternehmensweite Datenbasis für alle Ausprägungen managementunterstützender Systeme dient und durch eine strikte Trennung von operationalen und entscheidungsunterstützenden Daten und Systemen gekennzeichnet ist.“[60]

Um Trendanalysen über historische Daten zu ermöglichen, beträgt der in einem DW abgebildete Zeithorizont, in Abhängigkeit individueller Anforderungen, bis zu zehn Jahre. Das Datenmodell eines DW unterscheidet sich von dem der operationalen DV - Systeme dadurch, daß es aggregierte Daten, selektive Redundanzen und zeitliche Abhängigkeiten beinhaltet.[61]

Die Struktur des DW folgt nicht den Regeln der klassischen Datennormalisierung, sondern orientiert sich am Informationsbedarf der Anwender.[62] Normalisierte Datenstrukturen aus den operativen Systemen sind für den komplexen Analysebetrieb im DW weniger geeignet als denormalisierte.[63]

Mit dem Begriff Denormalisierung wird eine Vorgehensweise beschrieben, bei der ein Übergang zur nächsten Normalform, aus Gründen der Praktikabilität, wieder rückgängig gemacht oder gar nicht erst ausgeführt wird. War z.B. ein Produkt Bestandteil der Produktgruppe A und wird nun Produktgruppe B zugeordnet, wäre ohne Datendenormalisierung keine Analyse von historischen Daten möglich. „Ziel der Denormalisierung ist die Reduktion der Datenbankzugriffe, die im Rahmen einer Auswertung oder Analyse anfallen, um so eine Entlastung der verwendeten Hard- und Software und somit eine Verbesserung des Antwortzeitverhaltens des DW zu erreichen.“[64]

Eine allgemeine Definition des Begriffs DW hat sich noch nicht herausgebildet,[65] so daß eine kontroverse Diskussion über das grundsätzliche Verständnis der DW – Architektur (siehe Abbildung 2.1), als auch deren Einordnung innerhalb der MUS geführt wird.[66]

2.1.1 Komponenten eines Data Warehouse

Ein idealtypisches DW umfaßt als Komponenten die eigentliche Datenbasis, geeignete Transformationsprogramme zur Datengewinnung aus den unternehmensinternen und –externen Quellen, ein Archivierungssystem, sowie das Meta - Datenbanksystem (siehe Abbildung 2.2). [67] Vereinfacht ausgedrückt, sorgt die Transformationsebene für die Überführung der Daten in den DW - Speicher, das Metadatenbanksystem schafft die entsprechenden Voraussetzungen, um die gespeicherten Daten für Endanwenderwerkzeuge zugänglich zu machen.

- Datenbasis

Die Datenbasis bildet den Kern des DW – Konzepts. Sie enthält sowohl aktuelle, als auch historische Daten und Informationen aus allen eingebundenen Unternehmensbereichen in unterschiedlichen Verdichtungsstufen. Bezüglich der Struktur eines DW, sind bei der Konzeption verschiedene Gestaltungspunkte zu berücksichtigen:

- Granularität

Die Granularität beschreibt den Detaillierungsgrad von Daten. Sehr detaillierte Daten haben eine niedrige Granularität, mit steigender Verdichtung nimmt diese zu und wirkt sich unmittelbar auf den benötigten Speicherplatzbedarf, die Verarbeitungsgeschwindigkeit und die Flexibilität des DW aus.

Abbildung 2.1: Die Architektur eines Data Warehouse

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Bager, Becker, Munz (1997), Zentrallager, S. 287

- Partitionierung

Neben der Festlegung der Granularität der gespeicherten Daten ist die Partitionierung der Datenbestände ein weiteres Gestaltungsmerkmal des DW. Bei Durchführung der Partitionierung wird der gesamte Datenbestand des DW in mehrere kleine, physisch selbständige Partitionen mit redundanzfreien Datenbeständen aufgeteilt, was einen erhöhten Aufwand bei der Erstellung des Datenmodells und der Datenübernahme aus den operativen DV-Systemen zur Folge hat. „Im Vergleich zu großen Datenbeständen lassen sich kleinere Dateneinheiten in Bezug auf Restrukturierung, Indizierung, Reorganisation, Datensicherung und Monitoring einfacher verarbeiten.“[68]

- Transformationsprogramme

Interne Daten, meist aus den operativen Systemen gewonnen, und externe Daten, von z.B. Wirtschaftsverbänden oder Marktforschungsinstituten zur Verfügung gestellt, liegen meist in unterschiedlichen Dateiformaten vor. Transformationsprogramme überführen diese in ein einheitliches Dateiformat um die benötigte Kompatibilität zu gewährleisten.[69]

Diesen Komponenten wird eine wesentliche Bedeutung zuteil, da sie zum einen die Qualität der gespeicherten Daten entscheidend beeinflussen, und desweiteren manuelle Entwicklungszeit einsparen können.[70]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.2: Komponenten eines Data Warehouse

Quelle: Holthuis, Muksch, Reiser (1995), Das Data Warehouse, S. 10

Die unter dem Begriff DW – Management – Software zusammengefaßten Komponenten bestehen aus dem Monitor, dem Konverter und dem Integrator.[71]

Der Monitor analysiert Änderungen der Quellinformationen und regt Aktualisierungs- bzw. Extraktionsprozesse an. Konverter, teilweise auch als Wrapper bezeichnet, sind für die Erstellung der Datenintegration verantwortlich, sie überführen Daten in das Zielformat des DW.[72] Vom Konverter vereinheitlichte Daten werden vom Integrator übernommen und in den DW - Speicher eingefügt.[73]

- Archivierungssysteme

Um Daten im Falle eines System- oder Programmfehlers wiederherstellen zu können, werden sie vom Archivierungssystem gesichert. „Im Datensicherungsplan müssen zumindest die Daten der untersten Verdichtungsebene enthalten sein.“[74] „Um den schnellen und effizienten Zugriff auf große Datenmengen zu gewährleisten, werden heute Raid - Systeme (Redundant Array of Independent Drives) eingesetzt.“[75]

- Metadatenbanksystem

Aufgabe der Meta Datenbank ist es, Anwendern und DW Administratoren über zur Verfügung stehende Daten, deren Herkunft, Zugriffsmöglichkeiten, Bedeutung und Zusammenhang zu informieren. Diese Komponente wird dementsprechend auch als Daten - Informations - Katalog eines DW bezeichnet.[76]

Die Katalogisierung der transformierten Quelldaten, sowie die Festlegung von Zugriffsrechten für Endanwenderwerkzeuge, werden im Technical Directory der Meta Datenbank hinterlegt, welches sich somit an Entwickler und Administratoren richtet. Informationen, die dem End-benutzer die Navigation innerhalb des DW–Datenbestands erleichtern, hält das Business Directory der Meta Datenbank bereit.[77]

Die Vielzahl der Endanwenderwerkzeugen veranlaßte einige DW/OLAP – Vertreiber sich zum Metadata - Council zusammenzuschließen, um einen einheitlichen Standard für Administrative Metadaten zu entwickeln.[78]

Die Definition von Metadaten lautet „Daten über Daten“. Im Bereich des Internet Data Warehousing muß diese Definition jedoch in „Daten über Daten im Netz“ umformuliert werden, weshalb die Bedeutung von Metadaten hier eine größere Gewichtung erfährt.

- Auswertungstools

Auf der Anwenderseite sind zum Abruf von Daten aus dem DW alle Report – Writer oder Endbenutzer – Front – Ends, wie z.B. MS – EXCEL denkbar. Darüber hinaus existiert eine Vielzahl spezieller DSS – Werkzeuge, einzuordnen in die Segmente Ad – hoc – Abfrage und Berichtswerkzeuge, Managed Query Environments (MQE) und Multidimensionale DSS - Werkzeuge.[79]

2.1.2 Organisatorische Aufbaumöglichkeiten eines Data Warehouse

Die Struktur eines DW wird im wesentlichen durch den „Aufbau und die Organisation des Unternehmens, der vorhandenen DV – Infrastruktur und die Planung über zukünftige Entwicklungen des DV – Bereichs bestimmt.“[80] Ein DW kann zentral, oder mittels sogenannten Data Marts (DMA) auch dezentral errichtet werden (siehe Abbildung 2.3).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.3: Data Marts

Quelle: i. A. an Tanler (1997), The Intranet Data Warehouse, S. 138

„Data Marts sind fachliche Sichten auf das zentrale Warehouse, das zumindest logisch durch seine Metadaten existent sein muß.“[81] Sie stellen eine begrenzte Sicht auf ein spezielles Problem dar, weshalb sie typischerweise bei kleineren Projekten zum Einsatz kommen. Das Ziel von DMA – Installationen ist maßgeblich auf eine schnellere Bereitstellung von Daten, als auch auf eine Einsparung von Transferkosten zurückzuführen. Derartige Systeme halten vorrangig aggregierte Daten bereit und greifen bei Drill – Down – Bewegungen auf das zentrale DW zu, weshalb DMA keine zentralen Data Warehouse ersetzen.[82]

Eine zentrale Datenhaltung, im Sinne eines einzigen Datenpools, findet vorrangig in zentral aufgebauten IT – Abteilungen Verwendung, wobei der Vorteil dieser Organisationsform in dem vereinfachten Aufbau und der Wartung des DW – Systems zu sehen ist. Als Nachteil müssen zum Teil inakzeptable Antwortzeiten, sowie umständliche Zugriffe auf DW – Daten in Kauf genommen werden.

Frühe Client/Server – DW basierten auf einer zweistufigen Rechner-architektur. Funktionen, wie das Erstellen von Abfragen, werden hierbei auf der Client – Seite zur Verfügung gestellt. Das DW fungiert hier lediglich als Datenserver, der Abfrageergebnisse an den Client übermittelt. Formatierung und Darstellung erfolgt ausschließlich auf dem Anwender – PC (siehe Abbildung 2.4).[83]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.4: Zweistufige Rechnerarchitektur

Quelle: i. A. an Tanler (1997), The Intranet Data Warehouse, S. 30

Das Modell der verteilten Verarbeitung des Internet trennt zusätzlich die logischen Komponenten einer Anwendung von der Präsentationsstufe, wodurch im Bereich des Internet – Data Warehousing lediglich die Browser – Software auf der Client – Seite vorgehalten werden muß. Diese dreistufige Rechnerarchitektur bearbeitet Anfragen, welche hier als URL eingehen, zu einem HTML – Text. Diese HTML – Seite kann Komponenten einer Anwendung enthalten, um z.B. mit einem externen Programm Kontakt aufzunehmen. Die Kommunikation zwischen der logischen Stufe und der Präsentationsstufe wird durch sogenannte APIs[84] realisiert, die Kommunikation zwischen der logischen Ebene und der Datenstufe geschieht mittels SQL[85] (siehe Abbildung 2.5).[86]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.5: Dreistufige Rechnerarchitektur

Quelle: i.A. an Tanler (1997), The Intranet Data Warehouse, S. 31.

2.1.3 Datenanalyse mit Online Analytical Processing (OLAP)

Die bisherige Form von Abfragewerkzeugen beschränkt sich auf den Vergleich statistischer Werte und vernachlässigt die dynamische Analyse von Daten im Zeitablauf.[87] Da jedoch Analyse- und Visualisierungstools eine wichtige Rolle im praktischen Einsatz von DW – Systemen spielen, sollten gute und vollständige DW – Lösungen die Sicht auf die Daten aus den unterschiedlichsten Blickwinkeln gewährleisten,[88] was durch OLAP ermöglicht wird (siehe Abbildung 2.6).

[...]


[1] Bager, Becker, Munz (1997), Zentrallager: Data Warehouse – zentrale Sammelstelle für Informationen, S. 284.

[2] Bager, Becker, Munz (1997), Zentrallager: Data Warehouse – zentrale Sammelstelle für Informationen, S. 284.

[3] Fortune 500 sind die, anhand der Umsatzzahlen gemessen, 500 größten Unternehmen der USA.

[4] Vgl. Spiers (1996), Data Warehouse, S. 12.

[5] Vgl. Hübner (1996), Informationsmanagement und strategische Unternehmensführung, S. 3.

[6] Siehe Anhang 1: Ebenen der Semiotik.

[7] Vgl. Sinzig (1985), Datenbankorientiertes Rechnungswesen, S. 10.

[8] Vgl. Wittmann (1959), Unternehmung und unvollkommene Information, S. 14.

[9] Wittmann (1959), Unternehmung und unvollkommene Information, S. 14.

[10] Vgl. Berthel (1975), Betriebliche Informationssysteme, S. 13.

[11] Vgl. Kremar (1997), Informationsmanagement, S. 27.

[12] Kremar (1997), Informationsmanagement, S. 1.

[13] Vgl. Kremar (1997), Informationsmanagement, S. 2.

[14] Hübner (1996), Informationsmanagement und strategische Unternehmensführung, S. 87.

[15] Vgl. Heinrich (1994), Systemplanung, S. 12.

[16] Vgl. Behme, Muksch (1996), Die Notwendigkeit einer unternehmensweiten Informationslogistik, S. 13.

[17] Bager, Becker, Munz (1997), Zentrallager: Data Warehouse – zentrale Sammelstelle für Informationen, S. 284.

[18] Hannig, Schwab (1996), Data Warehouse und Managementinformationssysteme, S. 3.

[19] Sommergut (1998), Network Computing, S. 14.

[20] Vgl. Inmon (1992), Building the Data Warehouse, S. 10.

[21] Bager, Becker, Munz (1997), Zentrallager: Data Warehouse – zentrale Sammelstelle für Informationen, S. 284.

[22] Gertz (1998), Wird die Suche nach den Schätzen zu teuer?, S. 47.

[23] Vgl. Behme (1996), Das Data Warehouse, S. 14.

[24] Martin (1996), Data Warehousing, S. 39.

[25] Vgl. o.V. (1995a), Eitelkeiten des Management, S. 17f.. Siehe Anhang 2: Arten von Data Warehouse – Daten.

[26] Vgl. Schrempf (1995), Alter Wein, S. 28f..

[27] Vgl. Hannig, Schwab (1996), Data Warehouse, S. 4.

[28] Vgl. Schrempf (1995), Alter Wein, S. 29. Siehe Gliederungspunkt 2.1.1 Komponenten eines Data Warehouse.

[29] Vgl. Behrendt, Thierfeld (1996), Grundlagen des Data Warehouse, S. 10.

[30] Vgl. Schrempf (1995), Alter Wein, S. 29.

[31] Vgl. Holthuis, Muksch, Reiser (1995), Das Data Warehouse, S. 23.

[32] Vgl. Otto (1996), Die richtigen Informationen, S. 44.

[33] Vgl. Winterkamp (1995a), OLAP, S. 51.

[34] Vgl. Driesen (1996), Data Warehouse, S. 36.

[35] Vgl. o.V. (1996a), Ein Data Warehouse verlangt Know-how, S. 7.

[36] Vgl. Behrendt, Thierfeldt (1996), Grundlagen des Data Warehouse, S. 8.

[37] Vgl. Holthuis, Reiser (1996), Nutzenpotentiale des Data-Warehouse-Konzepts, S. 121.

[38] Vgl. o.V. (1996b), Providing Information to the Enterprise, S. 16.

[39] Siehe Anhang 3: Transmission Control Protocol/Internet Protocol.

[40] ARPA steht für Advanced Research Projects Agency.

[41] Vgl. Klau (1995), Das Internet, S. 32.

[42] Vgl. o.V. (1998a), Die häufigsten Fragen zum Thema Internet, S. 38.

[43] Vgl. Alpar (1996), Kommerzielle Nutzung des Internet.

[44] Vgl. o.V. (1996c), Java und NCs, S. 27.

[45] Vgl. Postel (1981a), Internet Protocol, Postel (1981b), Transmission Control Protocol.

[46] Vgl. Alpar (1996), Kommerzielle Nutzung des Internet, S. 49ff.

[47] O.V. (1995b), Marktübersicht Online Dienste, S. 76.

[48] Vgl. Roll (1996), Marketing im Internet, S. 34.

[49] O.V. (1998a), Die häufigsten Fragen zum Thema Internet, S. 40.

[50] Vgl. Roll (1996), Marketing im Internet, S. 24.

[51] Vgl. Klau (1995), Das Internet, S. 32.

[52] Vgl. Schnupp (1992), Hypertext, S. 34f..

[53] Vgl. Werner (1992), Entscheidungsunterstützung, S. 133.

[54] Vgl. Alpar (1996), Kommerzielle Nutzung des Internet, S. 10.

[55] Vgl. Tanler (1997), The Intranet Data Warehouse, S. 183.

[56] Vgl. Tanler (1997), The Intranet Data Warehouse, S. 154.

[57] Vgl. Schmitt (1996), Bewegliche Ziele, S. 262.

[58] Vgl. Gilmozzi (1996), Data Mining, S. 159.

[59] Vgl. Inmon (1992), Building the Data Warehouse, S. 11f..

[60] Muksch (1996), Charakteristika, S. 86.

[61] Vgl. Zornes (1994), Re-Engineering, S. 17.

[62] Datennormalisierung ist ein Erstellungsprozeß bei relationalen Datenbanken, wo Beziehungen oder Tabellen in kleinere Einheiten zerlegt werden. Diese Aufsplittung wird solange vollzogen, bis ein Punkt erreicht ist bei dem alle Beziehungen genau dem Primärschlüssel zuordenbar sind.

[63] Vgl. Winterkamp (1995a), OLAP, S. 50f.

[64] Muksch (1998), Das Data Warehouse als Datenbasis, S. 130.

[65] Vgl. Legner (1996), Data Warehousing, S. 5.

[66] Vgl. Hichert (1996), Um Mißverständnissen vorzubeugen, S. 8.

[67] Vgl. Inmon (1992), Building the Data Warehouse, S. 33f.

[68] Muksch (1998), Das Data Warehouse als Datenbasis, S. 129.

[69] Siehe Anhang 4: Logische und Physische Datentransformation.

[70] Vgl. Winterkamp (1995b), Schlagwort, S. 35.

[71] Vgl. Fritsch (1996), Info-Vorsprung, S. 8.

[72] Vgl. Tresch (1996), Middleware, S. 253.

[73] Vgl. Schreier (1996), Verarbeitungsprinzipien, S. 84.

[74] Behme (1996), Das Data Warehouse, S. 18.

[75] Otto (1998), Informations-Management, S. 62.

[76] Siehe Anhang 5: Typen von Metadaten.

[77] Vgl. Winterkamp (1996a), Man nehme, S. XIII.

[78] Vgl. Tanler (1997), The Intranet Data Warehouse, S. 86.

[79] Vgl. Martin (1996a), DSS-Werkzeuge, S. 15.

[80] Holthuis, Muksch, Reiser (1995), Das Data Warehouse, S. 27.

[81] Martin (1996b), Data Warehousing, S. 39.

[82] Vgl. Varney (1996), Datamarts, S. 44.

[83] Vgl. Tanler (1997), The intranet Data Warehouse, S. 29.

[84] API steht für Application Programming Interfaces und realisiert die Plattformunabhängigkeit einer Schnittstelle zur Kommunikation von Anwendungen und Datenbanken.

[85] SQL steht für Structured Query Language.

[86] Vgl. Tanler (1997), The Intranet Data Warehouse, S. 31.

[87] Vgl. Tiemeyer (1996), EIS und Data Warehouse, S. 54.

[88] Vgl. Hannig, Schwab (1996), Data Warehouse und Managementinformationssysteme, S. 5.

Ende der Leseprobe aus 94 Seiten

Details

Titel
Data Warehousing und Internet
Hochschule
Hochschule Ludwigshafen am Rhein
Note
0
Autor
Jahr
1998
Seiten
94
Katalognummer
V185218
ISBN (eBook)
9783656997986
ISBN (Buch)
9783867461245
Dateigröße
1493 KB
Sprache
Deutsch
Schlagworte
data, warehousing, internet
Arbeit zitieren
Dietmar Neu (Autor), 1998, Data Warehousing und Internet, München, GRIN Verlag, https://www.grin.com/document/185218

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Data Warehousing und Internet



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden