Qualitätssicherung bei Informationssystemen wird immer wichtiger, insbesondere bei Data Warehouse Systemen, da diese sehr komplexe Gebilde darstellen, bei denen es sehr wichtig ist, dass sie verlässliche Daten liefern. Ein Qualitätsmanagement soll daher insbesondere beim Aufbau einer Data Warehouse Lösung sicherstellen, dass alle Komponenten ordnungsgemäß arbeiten und zuverlässige Informationen zur Unterstützung von Entscheidungen dem Management bereitstellen. Hierzu sind Maßnahmen notwendig, die Fehler im Entwicklungsprozess vermeiden, entstandene Fehler lokalisieren und beheben sowie eine Organisationsstruktur zur Qualitätssicherung aufbauen.
Inhaltsverzeichnis
1 Einführung
2 Qualitätsfaktoren in Informationssystemen
2.1 Definition Qualität
2.2 Datenqualität
2.3 Informationsqualität
2.4 Systemqualität
3 Qualitätsmanagement
3.1 Phasen des Qualitätsmanagements
3.2 Total Quality Management
4 Maßnahmen zur Qualitätssicherung
4.1 Analytische Maßnahmen
4.2 Konstruktive Maßnahmen
4.3 Organisatorische Maßnahmen
5 Data Warehouse System
5.1 Fehlerquellen im Data Warehouse
5.2 Kosten von Fehlern
6 Testen im Produktlebenszyklus
6.1 Testen der Anforderungsanalyse und des Entwurfes
6.1.1 Review
6.1.2 Walkthrough
6.2 Testen der Implementierung
6.2.1 Inspektion
6.2.2 White-Box-Verfahren
6.2.3 Black-Box-Verfahren
6.2.4 Modultest
6.2.5 Funktionstest
6.3 Testen bei der Integration des Systems
6.3.1 Massentest
6.3.2 Stress Test
6.3.3 Lasttest
6.3.4 Recovery Test
6.4 Testen im Betrieb
6.4.1 Regressionstest
7 Zusammenfassung
Zielsetzung & Themen
Die Arbeit untersucht die Notwendigkeit und Umsetzung eines systematischen Qualitätsmanagements beim Aufbau von Data-Warehouse-Systemen, um deren komplexe technische Strukturen zu beherrschen und verlässliche, managementunterstützende Daten bereitzustellen.
- Qualitätsfaktoren (Daten-, Informations- und Systemqualität)
- Methoden des Qualitätsmanagements (Total Quality Management)
- Kategorien von Qualitätssicherungsmaßnahmen (analytisch, konstruktiv, organisatorisch)
- Fehlerquellen und Fehlerkosten in Data-Warehouse-Umgebungen
- Testmethoden über den gesamten Produktlebenszyklus hinweg
Auszug aus dem Buch
4.1 Analytische Maßnahmen
Wie bereits in Kapitel 3.1 angesprochen dienen analytische Maßnahmen der Qualitätssicherung des zu entwickelnden Software-Produktes und seiner Zwischenprodukte. Darunter versteht man alle Maßnahmen zur Erkennung und Lokalisierung von Mängeln und Fehlern [13]. Dabei wird die Software einer Prüfung unterzogen, um die erzielte Qualität zu messen und sie mit den vorgelegten Anforderungen zu vergleichen.
Ein Fehler liegt immer dann vor, wenn das zu testende Programm zum einen nicht das tut, was es soll und zum anderen das tut, was es nicht soll. Die Aufgabe von Prüfungen und Tests soll es sein, Fehler zu finden. Man beachte die Intention (vgl. [3]): „Das Ziel des Testens ist nicht der Nachweis der Korrektheit oder sogar Fehlerfreiheit von Software, sondern umgekehrt die Aufdeckung von Fehlern.“ Es gibt keine größere Anwendung, die ganz ohne Fehler ist (s. Microsoft). Ein Test ist also nicht dann erfolgreich, wenn er keinen Fehler feststellt, im Gegenteil, ein guter Test zeichnet sich genau dadurch aus, dass er viele Fehler findet.
Ein wichtiger Grundsatz ist, dass der Programmierer nicht sein eigenes Programm testen sollte, da er niemals einen objektiven Test durchführen könnte. Dies liegt in der Psychologie des Menschen. Testen sollte ein destruktiver Prozess sein, damit er erfolgreich ist. Es werden dabei nicht die Stärken des Programms aufgezeigt, sondern die Schwächen und Fehler. Dies kann für den Schöpfer, also den Programmierer, ziemlich frustrierend sein und somit wird er beim Testen nicht besonders motiviert an die Sache herangehen.
Zur Überprüfung der Software steht eine Vielzahl von Methoden zur Verfügung, die in statische und dynamische Prüfungen unterteilt werden können. In der Literatur wird allerdings auch öfters eine andere Einteilung in Verfahren mit und ohne Computereinsatz vorgenommen. Bei den statischen Prüfungen wird der Quellcode auf Fehler hin analysiert ohne dabei das eigentliche Programm selber auszuführen. Es werden hier meist manuelle Verfahren eingesetzt. Bei den dynamischen Prüfungen wird, um Fehler zu finden, die zu prüfende Software ausgeführt. Dabei wird geprüft, ob sich das Programm so verhält, wie es in der Spezifikation gefordert wird [13].
Zusammenfassung der Kapitel
1 Einführung: Diese Einleitung erläutert die Bedeutung von Data-Warehouse-Systemen für Unternehmen und betont die Notwendigkeit von Qualitätssicherungsmaßnahmen zur Vermeidung von Fehlfunktionen.
2 Qualitätsfaktoren in Informationssystemen: Das Kapitel definiert den Begriff Qualität in der Softwareentwicklung und unterteilt die Qualitätsanforderungen in die Bereiche Daten-, Informations- und Systemqualität.
3 Qualitätsmanagement: Hier wird das Konzept des Qualitätsmanagements als Managementsystem vorgestellt, inklusive der Phasen des PDCA-Zyklus und der Philosophie des Total Quality Managements.
4 Maßnahmen zur Qualitätssicherung: Dieses Kapitel klassifiziert Maßnahmen zur Qualitätssicherung in analytische, konstruktive und organisatorische Ansätze zur Fehlervermeidung und -erkennung.
5 Data Warehouse System: Der Aufbau von Data-Warehouse-Systemen wird skizziert, wobei der ETL-Prozess erläutert sowie typische Fehlerquellen und deren wirtschaftliche Folgen diskutiert werden.
6 Testen im Produktlebenszyklus: Dieses zentrale Kapitel beschreibt detailliert verschiedene Testverfahren, die in den unterschiedlichen Phasen der Softwareentwicklung, von der Analyse bis zum Betrieb, angewendet werden.
7 Zusammenfassung: Die Zusammenfassung rekapituliert die Wichtigkeit einer begleitenden Qualitätssicherung zur Gewährleistung verlässlicher Informationen in komplexen Data-Warehouse-Umgebungen.
Schlüsselwörter
Data Warehouse, Qualitätsmanagement, Software-Qualität, Qualitätssicherung, Datenqualität, Systemqualität, Total Quality Management, Testverfahren, Analytische Maßnahmen, Fehlerquellen, Produktlebenszyklus, ETL-Prozess, Fehlerkosten, Systemtest, Regressionstest
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit behandelt die grundlegende Bedeutung von Qualitätsmanagement und Qualitätssicherung beim Aufbau und Betrieb komplexer Data-Warehouse-Systeme in Unternehmen.
Was sind die zentralen Themenfelder der Arbeit?
Die zentralen Themen umfassen Definitionen von Software-Qualität, Qualitätsmanagement-Modelle wie Total Quality Management, verschiedene Arten von Qualitätssicherungsmaßnahmen sowie spezifische Teststrategien im Produktlebenszyklus.
Was ist das primäre Ziel oder die Forschungsfrage?
Das Ziel ist aufzuzeigen, wie durch ein systematisches Qualitätsmanagement Fehler in Data-Warehouse-Systemen vermieden, frühzeitig lokalisiert und behoben werden können, um verlässliche Entscheidungsgrundlagen zu sichern.
Welche wissenschaftliche Methode wird verwendet?
Die Arbeit basiert auf einer fundierten Literaturanalyse bestehender Konzepte und Standards der Softwaretechnik, des Qualitätsmanagements und der Wirtschaftsinformatik.
Was wird im Hauptteil der Arbeit behandelt?
Der Hauptteil gliedert sich in die theoretischen Grundlagen zu Qualitätsfaktoren und Managementmodellen, die Erläuterung von Qualitätssicherungsmaßnahmen, eine Einführung in die Architektur von Data-Warehouse-Systemen sowie eine detaillierte Aufarbeitung von Testmethoden über den gesamten Lebenszyklus.
Welche Schlüsselwörter charakterisieren die Arbeit?
Wichtige Schlüsselbegriffe sind Data Warehouse, Qualitätsmanagement, Qualitätssicherung, Software-Qualität, Datenqualität, Systemtest und Fehlerquellen.
Warum sind die Kosten von Fehlern bei einem Data Warehouse besonders kritisch?
Aufgrund der hohen Komplexität und der zentralen Rolle als Datenbasis für Unternehmensentscheidungen führen späte Fehlererkennungen zu exponentiell steigenden Kosten und gefährden die Validität der gesamten Informationsgrundlage.
Welche Rolle spielt der sogenannte "Fehlerstrom"?
Der Fehlerstrom verdeutlicht, dass Fehler, die bereits in der Anforderungsanalyse entstehen, in spätere Phasen verschleppt werden und dort wesentlich teurere Korrekturen erfordern als bei einer frühzeitigen Fehleraufdeckung.
Warum wird im Kontext von Data Warehouses besonders auf den Massentest verwiesen?
Da Data-Warehouse-Systeme riesige Mengen an Daten aus verschiedensten Quellen importieren, transformieren und wieder exportieren, müssen die Systemprozeduren extremen Datenlasten standhalten, was den Massentest unverzichtbar macht.
- Quote paper
- Dipl.-Wirt.-Inf. Jochen Kohlhaas (Author), 2005, Qualitätsmanagement beim Aufbau von Data Warehouses, Munich, GRIN Verlag, https://www.grin.com/document/63137