Entwicklung einer Business Intelligence Architektur zur Entscheidungsunterstützung im Qualitätsmanagment


Bachelorarbeit, 2014
84 Seiten, Note: 2,3

Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

Abkürzungsverzeichnis

1 Einleitung

2 Problematik
2.1 Allgemeine Betrachtung der Problematik
2.2 Fall aus der Praxis
2.3 Diskussion

3 Theoretische Grundlagen
3.1 Konzepte des Qualitätsmanagements
3.1.1 Total Quality Management (TQM)
3.1.2 Six Sigma
3.1.3 KAIZEN
3.1.4 Lean Management
3.2 Business Intelligence
3.2.1 Intension
3.2.2 Data Warehouse
3.2.3 ETL-Prozess

4 Wissenschaftliche Methode
4.1 Modelle der Softwareentwicklung
4.1.1 Wasserfall-Modell
4.1.2 V-Modell
4.1.3 Iterative Verfahren
4.1.4 Weitere Vorgehensmodell
4.1.5 Prototypbasierte Entwicklung
4.2 Die Methode des Prototypings
4.2.1 Prototyping allgemein
4.2.2 Anwendung der prototypbasierten Softwareentwicklung

5 Dokumentation der Ergebnisse
5.1 Entwicklung des Prototyps einer Business Intelligence Architektur im Qualitätsmanagement
5.1.1 Software des operativen Systems
5.1.2 Data Warehouse
5.1.3 ETL-Prozess
5.2 Anwendung des Prototyps

6 Fazit

7 Literaturverzeichnis

Abstract

In Zeiten ständig wachsenden Wettbewerbs, sehen sich Unternehmen immer öfter mit der Frage konfrontiert, wie flexibel ihre Produktion auf das Eintreten ungeplanter Ereignisse reagieren kann. Auch oder vor allem die Qualitätssicherung, welche heutzutage von größter Relevanz ist, sieht sich mit dieser Problematik konfrontiert. Die Auswirkungen mangelnder Qualität sind dabei sehr weitläufig. Auf externer Seite kann die Beziehung zum Kunden erheblich darunter leiden, wenn das Produkt nicht den gewünschten Qualitätsvorstellungen entspricht. Aber auch intern können die Konsequenzen schnell große wirtschaftliche Probleme verursachen. Gerade in Produktionsstätten, in denen die Wertschöpfungskette zu einem großen Teil automatisiert ist, kann beispielsweise die fehlerhafte Herstellung eines Produkts, zu einem überproportional großen organisatorischen und damit finanziellen Aufwand werden.

Der wesentlichste Punkt, aus welchem die beträchtlichen Folgekosten und die außerordentliche Arbeitsleistung resultieren ist, dass bei der notwendigen Nachbearbeitung des jeweiligen fehlerhaften Stücks, diverse Entscheidungen (muss das Teil verschrottet werden, oder wie genau muss es nachbearbeitet werden, etc.) individuell für jedes Teil, getroffen werden müssen.

In den letzten Jahren haben viele Konzepte, im Bereich des Qualitätsmanagements, Bekanntheit erlangt, die an dieser Stelle ansetzen und versuchen die Fehlerquellen zu minimieren. Jedoch verursacht die Einführung dieser Methoden meist enorme Kosten, was es besonders für kleine und mittelständige Unternehmen oft unmöglich macht, ihre Prozesse nach diesen Konzepten auszurichten. Die Qualitätsprobleme dieser Unternehmen lassen sich, aufgrund der geringeren Größe, jedoch in den meisten Fällen besser dokumentieren und überblicken, was die Möglichkeit einer speziell angepassten Lösung bietet.

Im konkreten Fall, eines mittelständigen Unternehmens aus der Region, wurde eine solche Lösung gefunden. Hierbei wurden die Daten, der jeweiligen Teile, in Excel-Listen erfasst und im Anschluss auf ihre wirtschaftlichen Auswirkungen geprüft. Ziel dabei war es, auf Grundlage der Daten, Rückschlüsse auf die internen Qualitätsprobleme zu ziehen und ihre ökonomische Relevanz zu analysieren. Die Umsetzung brachte jedoch programmbedingt einige Probleme und Fehler mit sich. Zunächst ist eine manuelle Dateneingabe in Excel-Listen, auch in einem Unternehmen geringere Größe, eine nur schwer zu überschauende und extrem zeitintensive Aufgabe. Folglich ist das Ergebnis letzten Endes sehr unübersichtlich, da mit einem Blick nicht mehr zu erkennen ist, ob und wann, welches Teil mit welchem Fehler eingetragen wurde. Im nächsten Schritt wurden diese Daten manuell in andere Excel-Tabellen übertragen, wobei es aufgrund der mangelnden Übersicht, zu Inkonsistenz und Redundanz kam. Die Umsetzung mittels Excel-Tabellen erwies sich als nicht geeignet, da keine grundlegende Durchgängigkeit der Daten gewährleistet werden konnte.

Ziel war es also eine Lösung zu finden, welche flexibel genug ist, um sich schnell auf die unternehmensspezifischen Anforderungen anpassen zu lassen, ohne dabei in die gewohnten Arbeitsabläufe einzugreifen. Zusätzlich muss eine durchgängige Verarbeitung der Daten gewährleistet sein, welche frei von Redundanzen und Inkonsistenzen ist und somit eine anschließende ökonomische Auswertung zulässt.

Um dieses Ziel zu erreichen, wurde im Rahmen dieser Arbeit, an einer Business Intelligence Architektur gearbeitet, die die Probleme der früheren Umsetzung aufgreift. Mit Hilfe eines Erfassungsformulars und einer Möglichkeit der Einsichtnahme, aller erfassten Beanstandungen, kann dabei Übersichtlichkeit, Flexibilität und Durchgängigkeit geschaffen werden.

Zunächst wird auf die verschiedenen Konzepte des Qualitätsmanagements eingegangen und anschließend der grundlegende Aufbau einer Business Intelligence, inklusive aller für diese Architektur notwendigen Bestandteile, genauer erläutert.

Im folgenden Abschnitt werden die typischsten Vorgehensweisen des Software­Engineering, sowie die Anwendung der für diese Arbeit gewählten Methode, der prototypbasierten Entwicklung, vorgestellt.

Der letzte Schritt umfasst die Ergebnisdokumentation und die Anwendung der fertigen Software. Zuerst wird dabei schrittweise die Erstellung des Programms erläutert und anschließend dessen Funktionsfähigkeit überprüft. Außerdem wird hier ein Vergleich mit den historischen Daten vorgenommen, um die Vorteile der neuen Lösung zu demonstrieren.

Abbildungsverzeichnis

Abbildung 1: Originaltabelle des Unternehmens zur Erfassung der Beanstandungen

Abbildung 2: Verlauf der Beanstandungsquote

Abbildung 3: Deming-Cycle

Abbildung 4: Six Sigma Prozessgrenze

Abbildung 5: Sigma-Niveau mit entsprechender Fehlerquote

Abbildung 6: Projektphasen von Six-Sigma

Abbildung 7: Arbeitsteilung nach japanischer Auffassung

Abbildung 8: Arbeitsteilung nach westlicher Auffassung

Abbildung 9: Merkmale von Kaizen und Innovation

Abbildung 10: Bestandteile des Lean Managements

Abbildung 11: Beispielhafte Darstellung eines Star-Schemas

Abbildung 12: Beispielhafte Darstellung eines Galaxy-Schemas

Abbildung 13: Beispielhafte Darstellung eines Snowflake-Schemas

Abbildung 14: Ablauf eines ETL-Prozesses

Abbildung 15: Vorgehen nach dem Wasserfall-Modell

Abbildung 16: Vorgehen nach dem V-Modell

Abbildung 17: Vorgehen nach iterativem Verfahren

Abbildung 18: Spiralmodell nach B. Boehm

Abbildung 19: Vorgehen nach RUP

Abbildung 20: Vorgehen nach der prototypbasierten Entwicklung

Abbildung 21: Muster von Prototypen

Abbildung 22: Schritte zum Erstellen eines Prototypen

Abbildung 23: Auswahl C#

Abbildung 24: leere Form beim Start eines Visual Studio Projekts

Abbildung 25: Auswahlmenü des Werkzeugkastens

Abbildung 26: Eigenschaftsfenster der Werkzeuge

Abbildung 27: Startfenster des operativen Systems

Abbildung 28: Befehl zum Öffnen einer neuen Form

Abbildung 29: Erfassungsformular

Abbildung 30: Befehl zum Generieren der Bearbeitungsnummer

Abbildung 32: Inhalt der Auflistung Fehlerart

Abbildung 33: Datumseinstellung beim Laden der Form

Abbildung 34: Quellcode zum Senden des Datensatzes an die Datenbank

Abbildung 35: Informationsfenster über leere Felder

Abbildung 36: Abfrage ob Daten wirklich gesendet werden sollen

Abbildung 37: Auswahl „Erfasste Vorgänge Anzeigen/Ändern“

Abbildung 38: Übersichtstabelle der erfassten Beanstandungen

Abbildung 39: Quellcode zum Laden der erfassten Daten

Abbildung 40: Bearbeitungsfenster für die Nacharbeit

Abbildung 41: Bearbeitungsfenster für die Sortierung

Abbildung 42: Übersichtsfenster für abgschlossene Nacharbeiten

Abbildung 43: Übersichtsfenster für abgeschlossene Sortierungen

Abbildung 44: Datenbank der Erfassung

Abbildung 45: QS_Database und die drei Tabellen für die Erfassung

Abbildung 46: QS-Warehouse mit den Fakten- und Dimensionstabellen

Abbildung 47: Datenmodell des Galaxy-Schema für das QS_Warehouse

Abbildung 48: Mit Datenbank verbinden

Abbildung 49: Verbindung hinzufügen

Abbildung 50: Arbeitsfläche zum Erstellen einer neuen Transformation

Abbildung 51: Übersicht der möglichen Operationen in Pentaho

Abbildung 52: Festlegung der Datenquelle

Abbildung 53: Auswahl der zu transformierenden Werte

Abbildung 54: „Lookup“ Steps der Erfassung

Abbildung 55: Dimensionstabelle Entscheidung

Abbildung 56: „Lookup“ Step für die EntscheidungsID

Abbildung 57: Auswahl und Anpassung der zu ladenden Daten

Abbildung 58: Wahl und Anpassung des Datentyps

Abbildung 59: „Insert/Update“ Step

Abbildung 60: Darstellung des gesamten ETL-Prozess für die Erfassung

Abbildung 61: Übersicht über den gesamten ETL-Prozess der Bearbeitung

Abbildung 62: Step „Nacharbeit Input“

Abbildung 64: Anfügen der fehlenden Werte

Abbildung 65: Zusammenführen der Datensätze

Abbildung 66: Startfenster der Beanstandungssoftware

Abbildung 67: Formular zur Beanstandungserfassung

Abbildung 68: Auswahl Abweichung

Abbildung 69: Auswahl Feststellung

Abbildung 70: Auswahl Verursacher

Abbildung 71: Auswahl Entscheidung

Abbildung 72: Auswahl Prüfer

Abbildung 73: Informationsfenster über leere Felder

Abbildung 74: Abfrage ob Daten wirklich gesendet werden sollen

Abbildung 75: Alle bisher erfassten Vorgänge

Abbildung 76: Anzeigen und Ändern einer Erfassung

Abbildung 77: Die ersten elf Daten aus der Originaltabelle

Abbildung 78: Bearbeitung der Nacharbeit

Abbildung 79: Bearbeitung der Sortierung

Abbildung 80: Übersicht der durchgeführten Nacharbeiten

Abbildung 81: Übersicht der durchgeführten Sortierungen

Abbildung 82: Faktentabelle Erfassung nach dem ETL-Prozess

Abbildung 83: Faktentabelle Bearbeitung nach dem ETL-Prozess

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1. Einleitung

Die Anforderungen, die an Unternehmen und deren Mitarbeiter gestellt werden, haben in den letzten Jahren immer mehr an Komplexität zugenommen. Besonders im Hinblick auf die Flexibilität, welche in Zeiten ständig wachsenden Wettbewerbs verlangt wird, müssen Betriebe ihre Geschäfts- und Produktionsprozesse anpassen. Diese sollen dabei auf der einen Seite immer besser und schneller von statten gehen. Auf der anderen Seite jedoch so kostengünstig wie möglich sein. Ein Aspekt, der dabei höchste Relevanz erlangt hat, ist die Beziehung zum Kunden. Um diese Beziehung zu sichern und weiter auszubauen gilt es in erster Linie ein sehr hohes Maß an Qualität zu anzustreben. Dies bezieht sich hierbei nicht nur auf die Produkte, sondern auch auf alle für deren Herstellung benötigten Arbeitsschritte.

Um die Gegensätze zwischen schnelleren und billigeren Prozessen, steigender Flexibilität und der Einhaltung der gewünschten Qualität zu überwinden, sind Unternehmen heute in der Verantwortung, effiziente Lösungen zu finden. Die Datenverarbeitung mittels einer sogenannten Business Intelliegence, kann den Betrieben dabei als gute Hilfestellung dienen. Mit ihrer datenbankgestützten Struktur, ist eine Business Intelligence Lösung in der Lage, der Managementebene mit einer fundierten Informationsbasis, als Entscheidungsunterstützung zu dienen. Die Informationsdaten, die für die Entscheidungsfindung benötigt werden, setzen dabei jedoch zuverlässig umgesetztes Qualitätsmanagement voraus. Hier haben in den letzten Jahren viele Systeme an Relevanz gewonnen. Durch die Möglichkeit der Zertifizierung, welche einige Qualitätsmanagementsysteme mit sich bringen, sind die Betriebe außerdem in der Lage dem Kunden gegenüber ihr Engagement für hohe Produktgüte und Zuverlässigkeit zu vermitteln. Allerdings sind diese Systeme häufig mit großen Kosten und einem Arbeitsaufwand verbunden, der sich durch die Vorteile ihrer Einführung oft nicht rechtfertigen lässt. Das Verlangen nach schnell zu implementierender und kostengünstiger Qualitätsmanagementsoftware, ist in den letzten Jahren daher gerade bei kleinen und mittelständigen Unternehmen stark gestiegen.

Im Rahmen dieser Arbeit wurde, für einen Betrieb aus der Region, an einer Lösung gearbeitet, die versucht diese Lücke zu füllen.

2. Problemstellung

2.1 Allgemeine Betrachtungen der Problematik

Die Bedeutung von effizient umgesetztem Qualitätsmanagement ist heutzutage also von entscheidender Bedeutung. Vor Allem die Norm ISO 9000 und deren Möglichkeit zur Zertifizierung haben in den letzten Jahren viele Unternehmen dazu gebracht diesen Bereich ihrer Produktion neu zu überdenken, oder gar neu zu gestalten.

“So bietet die ISO 9000 ff. prozessorientierte Bewertungskriterien, mit denen unabhängig von Produkten oder Dienstleistungen Effizienz und Qualität branchenübergreifend verglichen werden können. Diese Norm beschreibt modellhaft das gesamte Qualitätsmanagementsystem und ist Basis für ein umfassendes Qualitätsmanagement-System.“ [Krau2011]

In Folge dessen ist eine Vielzahl von Ansätzen zur Umsetzung beziehungsweise Einhaltung dieses Qualitätsstandards auf den Markt geströmt. Solche Qualitätsmanagementsysteme bieten diverse Vor- und Nachteile. Zu den positiven Aspekten gehören unter anderem [Piec2014]:

- Mittel- und langfristige Unternehmensplanung (...)
- Durchleuchtung sämtlicher betrieblicher Abläufe (...)
- Schaffung von Transparenz (...)
- Positive Außenwirkung auf Kunden und Lieferanten (...)
- Höhere Motivation der Mitarbeiter (...)
- Förderung des Qualitätsbewusstseins (...)
- Erhaltung bzw. Erweiterung der Unternehmenskenntnisse durch Dokumentation
- Nachweis der Sorgfaltspflicht des Unternehmens bei Rechtsfragen

Die Schwierigkeit, mit der sich vor Allem kleinere und mittelständige Unternehmen konfrontiert sehen, liegt in der Wahl des Verfahrens, welches am besten auf die Struktur und Arbeitsabläufe in der Produktion abgestimmt ist. Außerdem sollten die Kosten einer Einführung und Umsetzung, den aus ihnen gewonnenen Nutzen nicht übersteigen. Beispiele für Systeme welche in den letzten Jahren besonders an Bedeutung gewonnen haben sind [Weck2012, 4]:

- TQM (Total Quality Management)
- Six Sigma
- KAIZEN
- Lean Management

Die Kosten für eine Einführung eines solchen Systems setzen sich aus mehreren Faktoren zusammen. Zum einen fallen Beratungskosten an, da ohne entsprechende Fachexpertise eine korrekte Umsetzung nicht zu realisieren wäre. Des Weiteren entsteht ein Großteil des finanziellen Aufwandes durch Schulungen der Mitarbeiter. Den benötigten Zeitaufwand kann man in etwa wie folgt beziffern [Piech2014]:

- 20 Wochenstunden über einen Zeitraum von ungefähr 6 Monaten
- 2-tägige Schulung für alle Mitarbeiter in Qualitätsmanagementtechniken
- Qualitätszirkel 1 x monatlich (2 Stunden)

Besonders in Betrieben des Mittelstandes müssen die Investitionen für eine Umsetzung von Qualitätsmanagementsystemen oft auf die Projekte umgelegt werden, wohingegen es in großen Unternehmen üblich ist, sie durch eben diese Projekte zu erwirtschaften. [WeRi2005]

2.2 Fall aus der Praxis

Die Thematik dieser Arbeit bezieht ihren praktischen Bezug von einem mittelständigen Unternehmen aus der Region, dessen Produktion überwiegend auf die Herstellung von Pneumatik- und Hydraulikzylindern spezialisiert ist. Die Problematik im Unternehmen, welche schließlich in der Umsetzung der Software mündete, war im Qualitätsmanagement der Firma angesiedelt. Qualitative Defizite entstehen grundsätzlich an zwei verschiedenen Punkten. Zum einen wären die internen Fehler zu nennen, welche vor Allem auf mangelnde Sorgfalt bei der Bearbeitung zurückzuführen sind. Außerdem können sie aus unbemerkten Materialfehlern resultieren. Auf der anderen Seite existieren die externen Einflüsse auf die Qualität. Diese zu kontrollieren fällt zumeist sehr schwer, da ihre Entstehung meist nicht im Verantwortungsbereich des Unternehmens liegt. Im Fall des Pneumatik- und Hydraulikbetriebes hat man an einer Lösung gearbeitet, die sich in erster Linie der Dokumentation der Vorfälle widmet.

Alle produktionsbedingten Fehler, die im Zuge der regelmäßigen Qualitätskontrolle auftraten, wurden zunächst in eine Excel-Liste (Abb. 1) aufgenommen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Originaltabelle des Unternehmens zur Erfassung der Beanstandungen

Ziel der Firma war es, auf der Basis der Beanstandungen und der daraus folgenden qualitätssichernden Maßnahmen, Rückschlüsse auf die wirtschaftlichen Auswirkungen der einzelnen Produktionsfehler zu ziehen. Im folgenden Schritt wurde dann beabsichtigt diese Informationen zu nutzen, um auf interner Seite die Zuverlässigkeit zu steigern und somit Produktionskosten und Arbeitsaufwand zu senken. Die Möglichkeiten auf die Fehlerquellen der externen Seite Einfluss zu nehmen gestalten sich, wie zuvor erwähnt, im Qualitätsmanagement als sehr begrenzt. Jedoch ist es bei einer detaillierten Auflistung aller Fehlerursachen möglich, diese zumindest zu identifizieren. Sollte sich nun bei der Auswertung der Daten, zum Beispiel eine Häufung von Problemen mit einem bestimmten Lieferanten herausstellen, wäre das Unternehmen in der Lage, diesen gegebenenfalls zu wechseln, oder entsprechend Schadensersatz zu verlangen.

Schwierigkeiten bei der Dokumentation der Daten bereitete aber vor Allem die Umsetzung und Aussagefähigkeit der Erfassungsmethode selbst. Wie in Abbildung 1 zu erkennen ist, sind die Daten sehr umfangreich. Dies führt mit steigender Nutzungsdauer zu Problemen; besonders in der Übersichtlichkeit. Wenn man sich beispielsweise die Schreibweise der Zeichnungs- und Artikelnummern näher betrachtet, kann es schnell passieren, dass Daten übersehen oder doppelt eingetragen werden. Als besonders problematisch gestaltet es sich hierbei, dass ein und dieselbe Liste von mehreren Qualitätsprüfern benutzt wird. Dies führt mit fortschreitender Verwendung zu einer großen Anzahl von Datenredundanzen und Inkonsistenzen, die eine spätere Auswertung erheblich erschweren, beziehungsweise unmöglich machen können.

Im folgenden Schritt wurden die Daten nun vom Abteilungsleiter zusammengetragen und auf der Grundlage der jeweils notwendigen Weiterverarbeitung in fünf Entscheidungskategorien aufgeteilt:

- Nacharbeit
- Sortierung
- Verschrotten
- Teile extra halten
- Reklamation

Dabei wurden die Werte aus der Originaltabelle kopiert und in die jeweilige Entscheidungstabelle eingefügt. Das hieraus entstehende Fehlerpotential resultiert aus der Tatsache, dass dieser Schritt nicht direkt automatisch nach dem Erfassen durchgeführt wird, sondern manuell getätigt werden muss. Die aufgrund der Unübersichtlichkeit entstandenen Fehler bei der Dokumentierung, werden, zumindest zu einem gewissen Prozentsatz, übernommen und machen somit eine exakte ökonomische Analyse unmöglich. Dieses Problem wird durch den Fakt verstärkt, dass die Erfassung der Beanstandungen und deren anschließende Auswertungen, von unterschiedlichen Personen, zu verschiedenen Zeiten durchgeführt werden und die daraus resultierende fehlende Transparenz eine zukünftige Verwendung der Daten noch weiter verkompliziert. Der Prüfer hat im normalen Produktionsprozess oft nicht die Möglichkeit die komplette Produktionskette zu überblicken. Dem Abteilungsleiter fehlen wiederum die technischen Details um auftretende Qualitätsfehler genauer bewerten und einordnen zu können.

Aufgrund dieser voneinander getrennten Arbeitsweise, des Erfassens und Nachbearbeitens, konnte die Durchgängigkeit der Daten, welche für eine anschließende Auswertung unablässig ist, nicht gewährleistet werden.

Das Unternehmen setzte sich das Ziel, die Kosten der qualitätssichernden Maßnahmen unter 0,5% des Gesamtumsatzes zu senken. Dabei wurden am Ende eines jeden Monats alle Zahlen gesammelt und die Arbeitszeit des Mitarbeiters pauschal mit einem Kostenfaktor von 45 Euro pro Stunde multipliziert. Die mangelnde Durchgängigkeit der erfassten Beanstandungen, machte jedoch die Vergleichbarkeit der einzelnen Monate untereinander zunichte. Immer wieder kam es dazu, dass Inkonsistenzen und Datenredundanzen die exakte Analyse verfälschten. Und da die einzelnen Schritte der Datenverarbeitung unabhängig voneinander durchgeführt wurden, war eine erfolgreiche Fehlersuche im Nachhinein aussichtslos. Auch die mangelnde Transparenz, also die fehlende Möglichkeit zur Einsichtnahme, durch andere Mitarbeiter, hatte zur Folge, dass die Ursachen von falscher Datensätze nicht aufgeklärt werden konnten. Dies war insbesondere dann problematisch, wenn der Abteilungsleiter nicht in der Firma war und seine Arbeit von der diensthabenden Vertretung übernommen wurde.

Bei der Auswertung kam es noch zu zwei weiteren Problemen. Zunächst ist das Festlegen eines pauschalen Wertes, zur Berechnung des zusätzlichen finanziellen Aufwandes, sehr unpräzise. Zur Bemessung der reinen Arbeitskosten pro Zeit, für den jeweiligen Mitarbeiter, kann diese Methode zwar eine annähernd genaue Aussage treffen, jedoch werden Kosten für Material und eventuell anfallenden Versand, oder Transport außer Acht gelassen.

Abbildung in dieser Leseprobe nicht enthalten

Ein weiterer Punkt ist die Tatsache, dass die Aussagekraft der monatlichen Auswertung (Abb. 2) untergraben wurde, da man, um eventuelle Ausreiser zu verbergen, die verursachten Gesamtkosten der Qualitätssicherung so aufteilte, dass sie im Jahresschnitt in etwa konstant blieben. Eine Verfahrensweise, welche sich vor dem Hintergrund einer ökonomischen Bewertung, der einzelnen Beanstandungen, als äußerst kontraproduktiv herausstellt.

2.3 Diskussion

Die Frage die sich nun stellt, ist, ob es in einem Fall aus der Praxis, wie diesem oder einem vergleichbaren, stets sinnvoll ist, so komplexe, zeit- und kostenaufwändige Qualitätsmanagementsysteme einzuführen. Ein Großteil der Fachliteratur sieht den ganzheitlichen Ansatz als einzigen Weg, die Grundsätze der ISO 9000 ff. umzusetzen. Zwar bietet dieser besonders im Hinblick auf die Durchgängigkeit der Daten einen Vorteil, jedoch gestaltet es sich mitunter schwierig die „persönlichere“ Struktur kleinerer Unternehmen auf derart umfassende Konzepte abzustimmen. „Die IS0-9000- Zertifizierung kann eine Reihe von Problemen mit sich bringen [...] Immer wieder verursacht die Komplexität Schwierigkeiten. Der Versuch, "gewachsene Geschäftsabläufe" in das Qualitätsmanagementsystem zu übertragen, schlägt regelmäßig fehl. Zu vielschichtig, unvollständig und personenorientiert sind die meisten Abläufe. Nicht selten basieren sie teilweise oder ganz auf Improvisation und informellen Beziehungen.“ [Knop1994] Eine Suche nach Alternativen erscheint also gerade in Unternehmen kleinerer Größe durchaus berechtigt. So eine Alternative müsste die Balance finden, zwischen der Schaffung von Transparenz und Durchgängigkeit auf der einen Seite und Flexibilität und leichter Integrierbarkeit auf der anderen. Es muss also sichergestellt sein, dass sich ein solches System relativ schnell auf die bestehenden Abläufe anpassen lässt. Zusätzlich ist es von Bedeutung, dass jeder Mitarbeiter den Umgang schnell erlernen kann, um die Motivation zu dessen Nutzung zu sichern.

3. Theoretische Grundlagen

3.1 Konzepte des Qualitätsmanagements

3.1.1 TQM (Total Quality Management)

Das TQM wurde in den 1940er Jahren von dem US-amerikanischen Physiker William Edwards Deming entwickelt. Vor Allem im, vom zweiten Weltkrieg zerstörten Japan, erlangte es von Beginn an, an Popularität. In den folgenden Jahrzehnten wurde seine Methode dabei immer weiter verbessert und gelangte in den siebziger und achtziger Jahren, aufgrund der steigenden Qualitätsgüte japanischer Unternehmen, schließlich auch in den USA Bekanntheit.

Das TQM (sinngemäß übersetzt: „allumfassendes Qualitäts-Management“) setzt sich zum Ziel, dass sich alle Mitglieder des Unternehmens, an einer ständigen Verbesserung, der Produkte und Dienstleistungen beteiligen. Hierfür ist es laut Deming unverzichtbar, alle Unternehmensbereiche mit einzubeziehen. Beginnend beim Ingenieur, welcher Konstruktionsfehler vermeidet, über den Anlagenfahrerin der Produktion, der fehlerhafte Maschinen sofort meldet, bis hin zur Buchhaltung, welche die Unterlagen des Unternehmens so fehlerfrei wie möglich hält. Jeder Posten der Wertschöpfungskette trägt seinen Teil zum Erreichen, des Standards bei. Um dieses bereichsübergreifende Verständnis von Qualität umsetzen zu können, bedarf es laut Deming einer neuen Unternehmensphilosophie.

Diese fußt zusammenfassend auf den folgenden Prinzipien: [Yasa2013]

- Qualität orientiert sich am Kunden
- Qualität wird mit Mitarbeitern aller Bereiche und Ebenen erzielt
- Qualität umfasst mehrere Dimensionen, die durch Kriterien operationalisiert werden müssen
- Qualität ist kein Ziel, sondern ein Prozess, der nie zu Ende ist
- Qualität bezieht sich nicht nur auf Produkte, sondern auch auf Dienstleistungen
- Qualität setzt aktives Handeln voraus und muss erarbeitet werden

Definition des Total Quality Managements nach DIN EN ISO 8402:

„...auf der Mitwirkung aller ihrer Mitglieder gestützte Managementmethode einer Organisation, die Qualität in den Mittelpunkt stellt und durch Zufriedenstellung der Kunden auf langfristigen Geschäftserfolg sowie auf Nutzen für die Mitglieder der Organisation und für die Gesellschaft zielt.“

Um diese Ziele zu erreichen, stellte Deming 14 charakteristische Punkte auf, ohne deren Einhaltung eine Umsetzung des TQM, seiner Meinung nach, nicht möglich ist. [Yasa2013]

1. Beständigkeit der Zielsetzung
2. Aneignung der Qualitäts-Philosophie
3. Präventive Qualitätssicherung
4. Partnerschaftliche Zusammenarbeit mit Lieferanten
5. Ständige Verbesserung aller Prozesse
6. Arbeitsbegleitende Ausbildung
7. Kooperativer Führungsstil
8. Offenes Unternehmensklima
9. Beseitigung organisatorischer Barrieren
10. Verständliche Ziele und Vorgehensweisen
11. Kooperative Zielvereinbarungen
12. Identifikation der Mitarbeiter mit ihrer Tätigkeit
13. Qualifizierungsprogramme
14. Maßnahmenplan

Insbesondere dem fünften Punkt kommt nach Deming eine essentielle Rolle zu. Denn um sicher zu stellen, dass die Philosophie alle Bereiche des Unternehmens erreicht und somit eine erfolgreiche Umsetzung des Total Quality Managements gewährleistet ist, müssen alle Teile des Prozesses einer fortwährenden Verbesserung unterliegen. Hierfür griff er ein, in den 1930er Jahren von Walter A. Shewhart entwickeltes Konzept, auf und verbesserte es. Bekannt wurde unter dem Namen „Deming- oder PDCA-Cycle“ (Abb. 3). [Inqu2005]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Deming-Cycle [Inqu2005]

Er umfasst folgende Arbeitsschritte: [Inqu2005]

Plan: Alle Schwächen und Fehler, die im Prozessablauf auftreten, müssen zunächst identifiziert werden. Hieraus können dann Ideen zur Verbesserung und Planung entwickelt werden Do: Hier werden diese Verbesserungskonzepte nun durchgeführt. Dies geschieht auf der Basis eines Test-Szenarios, um den laufenden Prozess nicht zu stören.

Act: Nun wird überprüft, ob die Methode tatsächlich zu einer Verbesserung der Prozessabläufe geführt hat.

Check: Im letzten Schritt folgt eine Analyse aller Ergebnisse. Auf ihrer Grundlage werden im Anschluss Möglichkeiten zur Verbesserung untersucht und weiterführende Maßnahmen beschlossen.

Die Entwicklung von Six Sigma begann in den 1980er Jahren bei Motorola. Erste große Bekanntheit erreichte es im Jahr 1988, als Motorola den „Malcolm Baldridge Quality Award“ gewann und anschließend, durch dessen Einführung bei General Electric.

Bei Six Sigma handelt es sich um eine statistische Methode zur Prozessverbesserung. [MiHe2008,45-56] Besonderer Wert wird hierbei auf die Reduzierung der Variation von Streuparametern gelegt. Diese haben im Regelfall große Auswirkungen auf die Qualität und können damit in hohem Maße Einfluss auf die Ergebnisse, beispielsweise in der Produktion nehmen. Um Ergebnisse zu erreichen, die nur in geringem Umfang variieren und eine hohe Güte besitzen, ist es notwendige gute Prozesse zu schaffen. Ein Mittel zur Messung dieser Qualität ist die Gaußsche Normalverteilung. Ein Sigma entspricht dabei genau der Standardabweichung. Im Rahmen von Six Sigma wird nun versucht mit Prozessen zu arbeiten, die bei einem Niveau von sechs Standardabweichungen liegen. Auf die Produktion eines Unternehmens bezogen, entspräche das bei 1 Million produzierten Teilen, 3,4 fehlerhaften Ergebnissen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Six Sigma Prozessgrenze [Seib2012]

Wie in Abbildung 4 ersichtlich wird, befinden sich die Toleranzgrenzen des Prozesses, also die obere und untere Spezifikationsgrenze bei einem Wert, der dem Mittelwert +/- 6 Standardabweichungen entspricht. Es befinden sich also nur 3,4 von 1 Million Ergebnissen außerhalb dieser Grenzen. Die Wahrscheinlichkeit dafür, dass ein produziertes Teil während des gesamten Produktionsprozesses fehlerfrei bleibt, beträgt somit also 99,9966%. [MiHe2008,45-56]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Sigma-Niveau mit entsprechender Fehlerquote [WiBe2011, 5]

In den meisten Fällen beläuft sich das Qualitätsniveau heutzutage in Unternehmen auf drei bis vier Sigma. Schaut man sich nun die hierdurch entstehenden Kosten für die verursachten Fehler an, liegen diese im Vergleich zu einem 6-Sigma-Niveau, Schätzungen zufolge, um etwa 20 bis 25 Prozent höher. [Hege2009]

Wie nahezu alle Verfahren zur Qualitätsverbesserung, ist auch die Six-Sigma-Methode an den PDCA-Zyklus von Deming angelehnt. Auch hier existieren vordefinierte Arbeitsschritte, um eine erfolgreiche Einführung und spätere Verbesserung der Prozesse zu garantieren. Die Vorgehensweise im Six-Sigma bezeichnet man als „DMAIC“ und sie umfasst die folgenden Projektphasen. (Abb. 6)

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Projektphasen von Six-Sigma [Wave2012]

Die einzelnen Schritte beinhalten dabei spezifische Arbeitsschritte: [WiBe2011, 13f.]

Define: - Definition und Eingrenzung des zu verbessernden Umfangs

- Schaffung von Rahmenbedingungen

Measure: - Ermittlung des Ist-Zustandes des Prozesses, der verbessert werden soll, auf Basis von konkreten und messbaren Werten

Analyze: - Betrachtung der Zielgröße, im Zusammenspiel mit beeinflussten Faktoren, die auf dem Wege der Verbesserung und Optimierung beachtet werden müssen

Improve: - Entwicklung eines oder verschiedener Lösungsansätze

Control: - Schaffung von Voraussetzungen, um das erreichte Ergebnis aus den vorherigen Schritten auch dauerhaft zu sichern

Die Prozessverbesserung, mittels Six-Sigma, wird durch speziell dafür ausgebildete und trainierte Mitarbeiter durchgeführt und überwacht. Aufgaben, welche für eine erfolgreiche Prozessverbesserung von Belang sind, werden an diese Mitarbeiter vergeben. Die Rollenverteilung wird dabei nach Kompetenzunterschieden vorgenommen und in Gürtelfarben, ähnlich dem asiatischen Kampfsport, deutlich gemacht. Die Hierarchie ist wie folgt aufgebaut:

Abbildung in dieser Leseprobe nicht enthalten

Kaizen ist das bedeutendste japanische Managementkonzept. Seine Bezeichnung setzt sich aus den japanischen Wörtem für Veränderung („Kai“) und zum Besseren („Zen“) zusammen. In der Praxis setzte es sich unter dem Namen kontinuierlicher Verbesserungsprozess (KVP) durch.

Im Gegensatz zu vielen anderen Ansätzen zur Prozessverbesserung im Qualitätsmanagement, handelt es sich bei Kaizen nicht um eine direkte Methode zur Verbesserung der Prozessqualität. Der Grundgedanke ist hierbei die Überzeugung, dass es für eine stetig hohe Kundenzufriedenheit unverzichtbar ist, bewährte Produkte und Dienstleistungen bis zur Perfektion zur verbessern. In seinem Grundlagenwerk „Kaizen - Der Schlüssel zum Erfolg der Japaner im Wettbewerb“ beschreibt Maasaki Imai es so: „Die Botschaft von Kaizen heißt, es soll kein Tag ohne irgendeine Verbesserung im Unternehmen vergehen.“ [Imai, 1992]

Die Verfahrensweise zur ständigen Verbesserung, ist in ihren Grundzügen zwar stark an den Deming-Cycle „Plan-Do-Act-Check“ angelehnt, unterscheidet sich jedoch in einem grundlegenden Punkt von diesem. Während im Total Quality Management vor Allem, auf externer Seite, die Orientierung am Kunden im Vordergrund steht, beginnt die Umsetzung von Kaizen intern bei den Mitarbeitern. Ziel ist es, die Denkweise aller im Prozess beteiligten Mitglieder zu ändern und auf eine ständig währende Verbesserung zu konzentrieren. Die Konsequenz daraus ist, dass nach der Einführung von Kaizen, im Betrieb die Verbesserung nicht schlagartig und sprunghaft einsetzt, sondern, dass sie ein langwieriger Vorgang ist. Hier sieht Imai einen deutlichen Unterschied zwischen westlichen und japanischen Unternehmen. Während im Kaizen (Abb. 7) alle Ebenen an der Verbesserung der Prozesse beteiligt sind, wird diese Aufgabe auf westlicher Seite (Abb. 8) zum größten Teil dem oberen Management überlassen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7: Arbeitsteilung nach japanischer Auffassung [Imai1992, 28]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 8: Arbeitsteilung nach westlicher Auffassung [Imai1992, 28]

Einen weiteren Unterschied zwischen der Art wie wesentliche Firmen das Qualitätsmanagement umsetzen und der japanischen sieht Imai in der Art zu denken. Während im Kaizen eher prozessorientiert vorgegangen wird, richtet sich das Denken in westlichen Unternehmen vor Allem auf Innovation und das Ergebnis aus. In der Tabelle aus Abbildung 9 werden die Unterscheide zwischen Kaizen und innovationsorientiertem Handeln gegenübergestellt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 9: Merkmale von Kaizen und Innovation [Imai1992, 48]

Der Grundgedanke des Lean Managements entstand in den 1950er Jahren bei Toyota. Hier wurden, in Folge des zweiten Weltkrieges, nach effizienten Verfahren für die Serienproduktion gesucht. Daraus entstand das sogenannte Toyota Produktionssystem, auch TPS genannt, welches dem Automobilbauer mit seinen Grundsätzen und Methoden große Gewinne einbrachte.

In Folge dessen, verglichen Wissenschaftler in den 1990er Jahren, im Rahmen einer Studie, den Aufbau und die Organisation von japanischen, amerikanischen und europäischen Autoherstellern, um damit den Erfolg Japans in diesem Wirtschaftssektor erklären zu können. Das Ergebnis der Studie war, dass japanische Firmen in flacheren Hierarchien und schlankeren Strukturen aufgebaut waren, und dass diese Art des Managements die Unternehmensentwicklung positiv beeinflusste. Hieraus entstand auch der Begriff „Lean“ Management, was aus der englischen Sprache übersetzt schlankes Management bedeutet.

Als Väter gelten W. Edwards Deming, Taiichi Ohno und Jeck Welsh, welche die Philosophie mit all ihren Prinzipien begründeten. Im Fokus dieses Konzepts steht vor Allem das Produkt und dessen Qualität und somit die Kundenorientierung (Abb. 10). Es wird versucht die Wertschöpfungskette aus der Perspektive des Kunden zu begreifen. „An der Kundenschnittstelle haben Schwankungen nichts verloren“ [Welsh]

Die Ziele des Lean Managements lassen sich wie folgt zusammenfassen. [Baye2014, 20]

Durchlaufzeit gleich Wertschöpfungszeit:

- durch flexible Auftragsbearbeitung
- durch konzentrieren auf Material- bzw. Produktionsfluss
- durch ganzheitliches betrachten der Wertschöpfungskette

Qualität so hoch wie möglich:

- durch standardisieren der Arbeitsschritte
- durch einsetzen erprobter Technologien
- durch eliminieren von Fehlermöglichkeiten

Kosten so gering wie möglich:

- durch reduzieren der Umlauf- und Lagerbestände
- durch reduzieren von nicht wertschöpfenden Tätigkeiten
- durch Kompetenzentwicklung der Mitarbeiter und Führungskräfte

Ein weiterer grundlegender Aspekt der Philosophie des Lean Managements ist es, alle Arten von Verschwendung, die in der Produktion entstehen, soweit es geht zu vermeiden. „Jegliche Verschwendung ist aus dem System zu eliminieren“ [Ohno] Dabei kennt das Lean Management 7 Arten der Verschwendung: [EbKu2011]

1. Überproduktion
2. Zu hohe Bestände
3. Transport
4. Unnötige Bewegungen
5. Produktionsfehler und Nacharbeit
6. Wartezeit
7. Falsche oder unnötige Prozesse

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 10: Bestandteile des Lean Managements [Yasa 2013]

[...]

Ende der Leseprobe aus 84 Seiten

Details

Titel
Entwicklung einer Business Intelligence Architektur zur Entscheidungsunterstützung im Qualitätsmanagment
Hochschule
Technische Universität Bergakademie Freiberg
Note
2,3
Autor
Jahr
2014
Seiten
84
Katalognummer
V282036
ISBN (eBook)
9783656765530
ISBN (Buch)
9783656765547
Dateigröße
6068 KB
Sprache
Deutsch
Schlagworte
Qualitätsmanagement, Business Intelligence, Six Sigma, Entscheidungsunterstützung, Prozessoptimierung, ETL-Prozess, Data Warehouse, Kaizen, Softwareentwicklung, Softwareengeneering
Arbeit zitieren
Philipp Seidel (Autor), 2014, Entwicklung einer Business Intelligence Architektur zur Entscheidungsunterstützung im Qualitätsmanagment, München, GRIN Verlag, https://www.grin.com/document/282036

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Entwicklung einer Business Intelligence Architektur zur Entscheidungsunterstützung im Qualitätsmanagment


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden