Ein immer größeres Datenaufkommen in heutigen Unternehmen führt nicht selten zu einem in der Literatur oft als „Information Overload“ bezeichneten Phänomen.
Experten schätzen, dass sich die Informationsmenge auf dieser Welt alle 20 Monate verdoppelt. Mit den bisher verwendeten Verfahren der klassischen Statistik ist diese Fülle an Daten aber nicht mehr unter Kontrolle zu bringen.
Wissen ist Macht und Zeit ist Geld. Diese beiden bekannten Erkenntnisse sind als ein Hauptantrieb für die Forschung nach einem System zu sehen, dass es eben schafft diese Datenvolumina zu beherrschen.
Geforscht wurde nach einer Anwendung, die es ermöglicht die Daten zu strukturieren, zu sortieren und aufzubereiten um sie für das Unternehmen nutzbar zu machen.
Nur wenn es gelingt aus einer riesigen Datenmenge schnell zuverlässige Informationen zu gewinnen, die die Grundlage für jede operative und strategische Entscheidung sind, kann das Unternehmen im heutigen Geschäft bestehen.
Inhaltsverzeichnis
1. DATA MINING
1.1. BEGRIFFSKLÄRUNG UND FUNKTIONSWEISE DES DATA-MINING VERFAHRENS
2. DER DATA MINING PROZESS
2.1 DIE ZIELDEFINITION
2.2 DIE AUSWAHL GEEIGNETER DATENBESTÄNDE
2.3 DATENAUFBEREITUNG UND TRANSFORMATION
2.4 DIE DATA-MINING-METHODEN
3. NEURONALE NETZE
3.1. DAS ENTSCHEIDUNGSBAUMVERFAHREN
4. INTERPRETATION DER ERGEBNISSE
4.1 PROBLEME UND KRITIK
5. ZUSAMMENFASSUNG UND AUSBLICK
Zielsetzung und Themen der Arbeit
Diese Arbeit untersucht Data Mining als strategisches Instrument für Unternehmen, um in einer zunehmend datengesteuerten Geschäftswelt aus großen Informationsmengen relevante Erkenntnisse für operative und strategische Entscheidungen zu gewinnen.
- Grundlagen, Definition und Funktionsweise von Data-Mining-Verfahren.
- Strukturierung des Data-Mining-Prozesses in sechs aufeinander aufbauende Phasen.
- Analyse der Datenqualität und Bedeutung eines Data Warehouse.
- Erläuterung spezifischer Methoden wie neuronale Netze und Entscheidungsbaumverfahren.
- Kritische Betrachtung von Datenschutzaspekten und technologischen Herausforderungen.
Auszug aus dem Buch
1. Data Mining
Ein immer größeres Datenaufkommen in heutigen Unternehmen führt nicht selten zu einem in der Literatur oft als „Information Overload“ bezeichneten Phänomen.
Experten schätzen, dass sich die Informationsmenge auf dieser Welt alle 20 Monate verdoppelt. Mit den bisher verwendeten Verfahren der klassischen Statistik ist diese Fülle an Daten aber nicht mehr unter Kontrolle zu bringen.
Wissen ist Macht und Zeit ist Geld. Diese beiden bekannten Erkenntnisse sind als ein Hauptantrieb für die Forschung nach einem System zu sehen, dass es eben schafft diese Datenvolumina zu beherrschen.
Geforscht wurde nach einer Anwendung, die es ermöglicht die Daten zu strukturieren, zu sortieren und aufzubereiten um sie für das Unternehmen nutzbar zu machen.
Nur wenn es gelingt aus einer riesigen Datenmenge schnell zuverlässige Informationen zu gewinnen, die die Grundlage für jede operative und strategische Entscheidung sind, kann das Unternehmen im heutigen Geschäft bestehen.
Der angestrebte Idealfall wäre ein vollkommen autonom arbeitendes System das jegliche gewünschte Information auf Knopfdruck bereitstellt. Eine revolutionäre Entwicklung auf diesem Gebiet stellt das Verfahren des Data- Mining dar, das sich in den letzten Jahren etablieren konnte.
Das Data Mining dient der Durchforstung großer Datenmengen um neue Zusammenhänge festzustellen.
Zusammenfassung der Kapitel
1. DATA MINING: Einführung in die Problematik des "Information Overload" und Vorstellung von Data Mining als Methode zur Bewältigung großer Datenmengen.
1.1. BEGRIFFSKLÄRUNG UND FUNKTIONSWEISE DES DATA-MINING VERFAHRENS: Definition des Begriffs und Einordnung des Verfahrens als Prozess zur Identifikation nutzbarer Muster.
2. DER DATA MINING PROZESS: Überblick über die phasenorientierte Vorgehensweise und deren Bedeutung für die Informationsqualität.
2.1 DIE ZIELDEFINITION: Erläuterung der Notwendigkeit einer präzisen Zielsetzung und Analyse der Rahmenbedingungen.
2.2 DIE AUSWAHL GEEIGNETER DATENBESTÄNDE: Strategien zur Auswahl relevanter Daten und Bedeutung der Datenqualität.
2.3 DATENAUFBEREITUNG UND TRANSFORMATION: Darstellung des zeitaufwendigen Prozesses der Bereinigung und Vorbereitung der Daten für Analysezwecke.
2.4 DIE DATA-MINING-METHODEN: Überblick über die Kategorien der Analyseverfahren, insbesondere maschinelles Lernen.
3. NEURONALE NETZE: Funktionsweise künstlicher neuronaler Netze in der betriebswirtschaftlichen Anwendung.
3.1. DAS ENTSCHEIDUNGSBAUMVERFAHREN: Beschreibung des Top-Down-Prinzips und der Klassifikation mittels Entscheidungs- bzw. Klassifikationsbäumen.
4. INTERPRETATION DER ERGEBNISSE: Bedeutung der Erfolgskontrolle und der verständlichen Aufbereitung der gewonnenen Daten für Entscheider.
4.1 PROBLEME UND KRITIK: Auseinandersetzung mit Herausforderungen wie Datenschutz, Effizienz und der Notwendigkeit menschlicher Interpretation.
5. ZUSAMMENFASSUNG UND AUSBLICK: Fazit über die Rolle von Data Mining als Wettbewerbsfaktor und Ausblick auf zukünftige Entwicklungen im Individualmarketing.
Schlüsselwörter
Data Mining, Knowledge Discovery in Databases, KDD, Data Warehouse, Information Overload, Neuronale Netze, Entscheidungsbaum, Klassifikation, Individualmarketing, Database Marketing, Maschinelles Lernen, Datenqualität, Mustererkennung, Prozessmanagement, Datenschutz.
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit befasst sich mit der Anwendung von Data-Mining-Verfahren in Unternehmen, um große Datenmengen in strategisch wertvolles Wissen zu verwandeln.
Was sind die zentralen Themenfelder?
Zu den Schwerpunkten zählen die methodischen Grundlagen, der strukturierte Data-Mining-Prozess, spezifische Analysemodelle wie neuronale Netze sowie die praktische Implementierung und kritische Reflexion.
Was ist das primäre Ziel der Forschungsarbeit?
Das Ziel ist es aufzuzeigen, wie Unternehmen durch Data Mining Daten für Entscheidungsprozesse nutzbar machen und sich dadurch Wettbewerbsvorteile sichern können.
Welche wissenschaftliche Methode wird verwendet?
Die Arbeit stützt sich auf eine theoretische Auseinandersetzung mit Data-Mining-Methodologien sowie die Analyse von Fachliteratur zu den Themen Datenbanken und Marketing.
Was wird im Hauptteil behandelt?
Der Hauptteil gliedert den Data-Mining-Prozess in Phasen, erläutert die Funktionsweise neuronaler Netze sowie von Entscheidungsbäumen und diskutiert Anforderungen an die Datenbasis.
Welche Schlüsselwörter charakterisieren die Arbeit?
Die wichtigsten Begriffe sind Data Mining, KDD, Data Warehouse, Entscheidungsbäume, neuronale Netze und Individualmarketing.
Was unterscheidet das CART-Verfahren von anderen Baumtypen?
CART (Classification And Regression Trees) erzeugt durch feste Schwellenwerte Binärbäume, an deren Verzweigung jeweils genau zwei Äste existieren, um Daten optimal zu klassifizieren.
Warum ist die Datenschutz-EU-Richtlinie von 1995 relevant?
Sie regelt den Schutz natürlicher Personen bei der Verarbeitung sensibler Daten, was die Anwendung von Data-Mining-Verfahren verkompliziert, da der Zweck der Datennutzung oft erst während der Analyse bestimmt wird.
- Arbeit zitieren
- Dr. Holger Rekow (Autor:in), 2012, Einführung in das Data Mining, München, GRIN Verlag, https://www.grin.com/document/211736