Data Mining - Theorie und praktische Anwendungen


Bachelorarbeit, 2009

49 Seiten, Note: 1,0


Leseprobe


Inhaltsverzeichnis

1 Was ist Data Mining ?
1.1 Gründe für die Verbreitung des Data Minings
1.2 Anwendungsgebiete
1.2.1 Der Supermarkt als Informationsbroker
1.2.2 ‚Das könnte Sie interessieren!’ Empfehlungen als direktes Marketing
1.2.3 Gute und Schlechte Kunden

2 Ablauf des Data Mining Prozesses
2.1 CRISP-Data Mining
2.1.1 Business Understanding
2.1.2 Data Understanding
2.1.3 Data Preparation
2.1.4 Modeling
2.1.5 Evaluation
2.1.6 Deployment

3 Methoden des Data Mining
3.1.1 Klassifikation
3.1.2 Segmentierung
3.1.3 Prognose
3.1.4 Korrelationsanalysen
3.1.5 Abweichungsanalyse

4 Die Wichtigsten Techniken des Data Minings
4.1 Decision Trees
4.2 Clustering
4.2.1 K-Means
4.3 Neuronale Netze

5 Data Mining Tools

6 Implementierung
6.1 Data Understanding
6.1.1 Forstbestand
6.1.2 Gasthaus
6.1.3 Brustkrebsuntersuchung
6.2 Data Preparation
6.2.1 Forstbestand
6.2.2 Gasthaus
6.2.3 Brustkrebsuntersuchung
6.3 Modeling
6.3.1 Forstbestand
6.3.2 Gasthaus
6.3.3 Brustkrebsuntersuchung
6.4 Evaluation
6.4.1 Forstbestand
6.4.2 Gasthaus
6.4.3 Brustkrebsuntersuchung
6.5 Deployment

7 Open Source Programme
7.1 WEKA
7.1.1 Modeling mit WEKA
7.1.2 Rapid Miner
7.1.3 Vergleich

8 Aussicht

9 Literaturliste

1 Was ist Data Mining ?

Heutzutage müssen Unternehmen, besonders jene mit viel Kundenverkehr, mit einer großen Menge an Daten haushalten. Diese zum Teil riesige Datenmenge hat das Potential nützliche Informationen für das Unternehmen zu enthalten. Data Mining bedeutet wörtlich übersetzt ‚das Schlürfen in Messdaten‘ was mit dem Schlürfen nach Gold verglichen werden kann, da extrahierte Information aus einer Datenmenge für das Unternehmen sehr Wertvoll sein kann. Aus einem Datenberg entsteht Wissen. Daher wird für Data Mining auch der Begriff Knowledge Mining verwendet.

Data Mining kann als systematischer, kreativer Prozess angesehen werden, der im Arbeitsfortschritt den Datenbestand nach Regelmäßigkeiten, Mustern, Strukturen, Abweichungen und Beziehungen sowie gegenseitigen Korrelationen jeglicher Art untersucht.[1] Dazu verbindet Data Mining Methoden aus der Statistik, dem Maschinellem Lernen, der Datenbanken und der Visualisierung.

Abbildung in dieser Leseprobe nicht enthalten

[Abb. 1, Der Data Mining Prozess][2]

In der Abbildung ist der Ablauf der ‚Knowledge Discoveries‘, sprich der Weg von Rohdaten zur Generierung von Wissen dargestellt.

1.1 Gründe für die Verbreitung des Data Minings

Der Entwicklung von Data Mining Programmen, welche gerade in der Open Source Szene zur Zeit Hochkonjunktur hat, liegen mehreren Faktoren zu Grunde. Einerseits liegen erst seit ein paar Jahren Datenmengen in der Größe vor, dass diese nicht mehr händisch ausgewertet werden können. Dies zur direkten Folge dass die Entwicklung von Programmen zur Auswertung dieser Datensätze unabdingbar geworden ist.

Zum anderen, ist zwar schon seit einiger Zeit bekannt wie ineffektiv herkömmliches Marketing ist, ganz nach Henry Fords Aussage dass die Hälfte seiner Werbemaßnahmen herausgeschmissenes Geld ist, er jedoch nicht weiß um welche Hälfte es sich handelt. Da in der heutigen Zeit das Sammeln und Speichern von Kundendaten keine großen Probleme mehr darstellt (zumeist ist dies heutzutage durch Data Warehousing Lösungen automatisiert), kann durch die Verwendung von Data Mining Methoden der Kundenstamm genauestens Analysiert werden, und in Folge von direkten Werbemaßnahmen kosten eingespart und die Effizienz der Marketingmaßnahmen gesteigert werden. Zudem kommt noch dass Kundeninformationen immer mehr zu einem handelbaren Produkt an sich wird. Viele Firmen haben das erkannt und schließen sich mit anderen Firmen zusammen um möglichst viele Informationen über ihre Kunden sammeln zu können, oder kaufen sogar Informationen über mögliche Kunden bei ‚Information Brokern’ wie zum Beispiel Axciom, eine Firma die sich auf das Sammel, Speichern und Zusammenführen von Kundendaten spezialisiert hat, ein.

Auch die stetig steigende Rechenleistung der Personalcomputer sorgt für eine wachsende Verbreitung von Data Mining Programmen. Jede kleinere Firma kann mit einem herkömmlichen PC ihr Kundendaten mit kostenlosen, Open Source Data Mining Programmen ohne größeren Aufwand analysieren.

1.2 Anwendungsgebiete

In allen Teilen der Betriebswirtschaft in denen große Datenmengen und deren beinhaltenden Informationen für strategische Entscheidungen herangezogen werden kann, kann Data Mining eine große Hilfe sein um entscheidende Informationen generieren zu können. Da aus Sicherheits- sowie Marketinggründen heutzutage Unmengen von Daten gesammelt werden, ist es nur durch Data Mining möglich diese auch zu verwerten. Beispiele im Marketing sind:

- Warenkorbanalyse
- Direktes Marketing
- Kunden- und Marktsegmentierung

Bei Sicherheitsfragen ist vor allem die Abweichanalyse zur Auffindung von Kreditkartenbetrug, terroristischen, und anderen kriminellen Aktivitäten.

1.2.1 Der Supermarkt als Informationsbroker

Viele Supermarktketten bieten den Kunden Vergünstigungen an, wenn diese dafür bereit sind durch eine Mitgliedschaft ihre Daten dem Supermarkt frei zu geben. Jede Transaktion die dann durchgeführt wird, wird in einem Data Warehouse gespeichert, wodurch der Supermarkt ein Profil des Kunden erstellen kann, z.B. welche Produkte er oft, weniger oft, selten und gar nicht kauft. Auch die Zeit, wann welche Produkte, oder in welchen Zusammenhang die Produkte gekauft werden. Dazu hat der Supermarkt noch die Adresse des Kunden und kann so eine geographische und demographische Einteilung seines Kundenstammes durchführen. Möglich währe auch die Weitergabe dieser Daten an andere Unternehmen. Sicherlich währe es für Krankenkassen interessant zu wissen wie gesund oder ungesund sich eine Person ernährt, und demnach die Beiträge anzupassen.

1.2.2 ‚Das könnte Sie interessieren!’ Empfehlungen als direktes Marketing

Viele Online-Shops bieten auf ihrer Seite schon seit einiger zeit ein sehr gutes direktes Marketing an: die Zeile ‚Das könnte Sie interessieren’. Durch die schon gekauften Artikel in dem Shop, wird ein Profil erstellt welches mit den Profil der anderen Kunden verglichen wird. Eine Liste mit Empfehlungen wird basierend auf Artikel die mit den schon gekauften Artikeln oft zusammen oder nachgekauft werden (z.B. Peripherieprodukte wie Taschen, Objekte oder Speicherkarten zu Digitalkameras), oder basierend auf Artikel die andere Kunden, die im shop ähnliche Produkte gekauft haben, also ein ähnliches Profil haben, auch gekauft haben. (z.B. Bücher oder Musik gleichen Genres.)

1.2.3 Gute und Schlechte Kunden

Eine große Aufgabe an das Data Mining ist die Unterscheidung des Kundenstammes in gute und schlechte Kunden. Da es mehr kostet Neukunden zu akquirieren als seinen Kundenstamm beizubehalten, ist es wichtig seine ‚guten’ Kunden zufrieden zu stellen und, sollte eine Veränderung der Kundenpräferenzen stattfinden, darauf eingehen zu können.

So ist es möglich dass eine Bank durch die Analyse der Kreditkartenabrechnungen und Kontotransaktionen vorhersehen kann wenn ein Kunde umziehen will. Da in Amerika ein Umzug oft auch ein Wechsel der Bank mit sich zieht, bietet die amerikanische Bank Wachovia nicht nur den reibungslosen Wechsel des Kontos auf eine andere Zweigstelle an, sondern übernimmt sogar die Ab- und Anmeldung von Gas und Strom für seine Kunden, um seine Kunden nicht zu verlieren.

Nicht alle Kunden sind für Unternehmen profitabel. Neben kreditunwürdigen Kunden bei Banken, gibt es auch Kunden die kostenlos angebotene Serviceleistungen so weit missbrauchen, dass diese eine Belastung für das Unternehmen wird. Durch Klassifizierung des Kundenstamms und einer Profilerstellung ist es möglich diese Kunden im Vorfeld zu erkennen.

2 Ablauf des Data Mining Prozesses

2.1 CRISP-Data Mining

2000 wurde mit dem Cross Industry Standard Process for Data Mining ein einheitlicher Standard für Data Mining Prozesse geschaffen. Es gliedert den Data Mining Prozess in 6 Phasen, die einen dynamischen Prozess, nicht eine lineare Vorgehensweise, darstellen:

Abbildung in dieser Leseprobe nicht enthalten

[Abb. 2: Phases of the CRISP-DM Model][3]

2.1.1 Business Understanding

Hier werden die strategischen Projektziele festgelegt. Wie man an den Pfeilen sehen kann ändern sich die Projektziele mit der Vorgehensweise, d.h. aus gewonnen Informationen kann sich das Unternehmen strategisch um orientieren bzw. spezialisieren.

2.1.2 Data Understanding

In diesem Prozess werden alle gesammelten Daten zu einem einheitlichem Datensatz zusammengeführt.

2.1.3 Data Preparation

Bei der Data Preparation werden die Daten zur Auswertung vorbereitet damit sie mit verschiedenen Data Mining Methoden bearbeitet werden kann. Bei diesem Schritt werden für jede Variable das Skalenniveau (metrische und nichtmetrische) und der Datentyp festgesetzt. Außerdem wird auf Vollständigkeit überprüft.

2.1.4 Modeling

Hier wird das eigentlich Data Mining durchgeführt, d.h. die Daten werden mit Hilfe von verschiedenen Techniken nach Regelmäßigkeiten, Mustern, Strukturen, Abweichungen und Beziehungen gesucht.

2.1.5 Evaluation

Hier wird das Ergebnis ausgewertet. Sollte das Ergebnis unzureichend sein, kann das Business Understanding abgeändert / spezialisiert werden.

2.1.6 Deployment

Bei einem zufriedenstellendem Ergebnis müssen die daraus resultierend Aktionen umgesetzt werden, bzw. in einem Abschlussbericht aufgezeigt werden.

3 Methoden des Data Mining

Je nach der Aufgabenstellung können verschiedene Data Mining Methoden angewandt werden, hier ein Überblick einiger Techniken:

3.1.1 Klassifikation

Bei der Klassifikation wird der Datensatz durch gesetzter Regeln in verschieden Klassen eingeteilt, bzw. kann mit den Ergebnis der Einteilung eine Beschreibung und Ursachenforschung betrieben werden, aus der auch eine Prognose hervorgehen kann.

Abbildung in dieser Leseprobe nicht enthalten

[Abb. 3: Lineare Klassifikation für einen Loan Data Set][4]

3.1.2 Segmentierung

Bei der Segmentierung wird die Datenmenge in verschieden Cluster zusammengefasst, so können z.B. aus den Gesamtkonsumenten einzelne Zielgruppen herausgefunden werden, die dann spezieller angesprochen werden kann. Dieses Clustering kann auch durchgeführt werden, sollte der Datensatz nicht über ein Label verfügen, sprich keine Klassifizierung aufweisen. Um bei dem Beispiel der Kreditvergabe zu bleiben, könnte man die Daten (sprich die einzelnen Kreditantragssteller) in die Gruppen: 1)Kein Kredit vergeben, 2)Kredit vergeben, und 3) Kreditantrag genau überprüfen:

Abbildung in dieser Leseprobe nicht enthalten

[Abb. 4: Clustering für einen Loan Data Set][5]

3.1.3 Prognose

Ähnlich der Klassifikation, nur mit der zusätzlichen zeitlichen Komponente, ist die Prognose. Durch statistische Verfahren oder auch Entscheidungsbäumen können für neue Daten anhand der vorhandenen Klassifikation des Datensatzes eine Prognose abgegeben werden. Im Beispiel ob für einen neuen Kreditantragsteller der Kredit gewährt werden soll.

Abbildung in dieser Leseprobe nicht enthalten

[Abb. 5: Decision Tree, Quelle: Eigene Darstellung]

3.1.4 Korrelationsanalysen

Korrelationen können speziell im direkten Marketing und in der Kaufverhaltensvorschung von großem Nutzen sein. Man kann unterscheiden zwischen Produkten die gleichzeitig gekauft werden (z.B. Computer und Monitor) oder Produkte die zeitlich nacheinander gekauft werden (Oft wird 4-6 Monate nach dem kauf eines Videorekorders eine Videokamera gekauft)[6]. Als Methode zur Findung von Korrelation werden Assoziantionsregeln und Bayesche Netze angewendet. Besonders interessant und eine der ersten Anwendungsgebiete in denen Data Mining angewendet worden ist, ist die Market basket analysis.

Folgende Frage kann sich der Verkäufer stellen:

Abbildung in dieser Leseprobe nicht enthalten

[7][Abb. 6, BERRY, M. Market Basket]

Als diese Analysen die ersten Male durchgeführt wurden, wurde ein kurioses Ergebnis entdeckt: es besteht eine hohe Korrelation zwischen Bier und Windeln. Dies liegt höchstwahrscheinlich daran dass zum Wochenende hin junge Eltern Bier für das Wochenende einkaufen, und um dieses in ruhe genießen zu können, werden genug Windeln gekauft, damit man nicht noch ein mal los muss.

Nun hat der Verkäufer 2 Möglichkeiten mit dieser neu gewonnen Information umzugehen: Entwerder er platziert Bier und Windeln nahe bei einander, so dass wenn der Kunde das eine Kauft, auf das andere nicht vergisst.

Oder es werden die 2 Güter an beiden Enden des Supermarkts platziert, so dass der Kunde ein mal durch den ganzen Supermarkt gehen muss, und auf dem Weg womöglich noch einige Spontankäufe tätigt.

Neben diesen Point-of-Sale-Analysen, können Korrelationsanalysen aber auch für andere Sachen angewendet werden, einige Beispiele wären:

- Keditkartenkäufe wie Hotelzimmer oder Mietwagen geben Informationen über welche Güter womöglich in Zukunft gekauft werden.
- Gekaufte Computerperipherie gibt Auskunft über welche ‚Bundels’ angeboten werden könnten (z.B. Computer, Monitor, Drucker, Maus, Tastatur, Webcam in einem Paket.)
- Ungewöhnliche Kombinationen von Versicherungsforderungen können Anzeichen eines Betrugs sein

3.1.5 Abweichungsanalyse

Bei der Abweichungsanalyse werden mit Hilfe von Ausreißertest Objekte ermittelt dessen Werte von Erwartungswert stark abweichen. Dadurch kann die Entwicklung neuer Trends prognostiziert wird aber auch Hinweise auch falsche Daten oder Modelle geben. Datenobjekte die aus der Masse herausstechen können einfach Sichtbar gemacht werden, was speziell in Sicherheitsfragen in Zukunft eine große Rolle spielen wird.

4 Die Wichtigsten Techniken des Data Minings

Um Data Mining durchführen zu können, verwenden Data Mining Tools sogenannte ‚Learner’, die mithilfe arithmetischer Mitteln den Datensatz analysieren. Je nach Aufgabenstellung können hier verschiedene Techniken verwendet werden, dazu ein Überblick über die Funktion und Anwendung der wichtigsten:

4.1 Decision Trees

Decision Trees oder auch zu Deutsch Entscheidungsbäume ist eine einfache jedoch gut funktionierende Technik, durch das eine Klassifizierung und eine Prognostizierung sehr gut graphisch dargestellt werden kann (wie zu sehen in Abb. 5)

Der zweite Grund Decision Trees anzuwenden ist dass nicht nur als Ergebnis eine Klassifizierung, sondern auch die ‚Rules’, die Regeln nach der die Klassifizierung durchgeführt wurde, ausgegeben werden (Was bei Klassifikation nach neuronalen Netzen nicht der Fall ist). Dies ist essentiell bei Versicherungen, da diese verpflichtet sind den Grund für die Einteilung ihrer Kunden in verschiedenen Stufen offen zu legen. Banken können auch begründen, warum sie einem Kunden einen Kredit nicht gewähren.(z.B. Einkommen zu niedrig für die Höhe des Kredits)

Decision Trees unterteilen eine große Gruppe heterogener Objekte in kleinere, homogenere Klassen, welche ähnliche Eigenschaften aufweisen. Wie z.B. die Aufteilung der Tierwelt in Klasse, Ordnung, Familie, Gattung und Spezies. Die Regeln für die Unterteilung sind Nachvollziehbar, z.B. nach Klassen mit unterschiedlichen Eigenschaften: Säugetiere, Vögel, Reptilien, Fische, Insekten und Würmer.

Die Unterteilung findet wie folgt statt:

- Jede Variable wird einzeln hergenommen und die Genauigkeit der Teilung die durch die einzelnen Ausprägung dieser einzelnen Variable hervorgeht wird gemessen.
- Dies wird mit allen Variablen einzeln gemacht
- Die Variable die die beste, bzw. genaueste Aufteilung her gibt, wird für die erste Aufteilung genommen, d.h. aus der Gesamtmasse entstehen 2 oder mehrere Teilmassen.
- Dieser Prozess wiederholt sich solange bis keine Aufteilung mehr gemacht werden kann (auch schon verwendete Variablen werden noch mal untersucht), da entweder die Menge an Objekten zu klein wird, oder keine Aufteilung mehr einen Sinn ergibt, da sich die entstehenden Teilmassen kaum unterscheiden würden.
- Der Decision Tree wird dann ausgegeben und die Regeln können nachvollzogen werden.

Die Genauigkeit der Unterteilungen wird anhand des Labels gemessen. Das Label ist eine Variable nach der der Datensatz aufgeteilt werden soll, und wird vor der Analyse festgesetzt. In dem Decision Tree von Abb. 6 ist das Label die Variable ‚Kredit genehmigen’ mit den Werten {Ja, Nein}.

Sollte kein Label vorhanden sein, könnte dieses mit Hilfe des Clusterings erstellt werden:

4.2 Clustering

Wie schon in Kapitel 3.1.2 beschrieben, wird der Datensatz um eine Variable, dem Cluster, erweitert. Diese Methode hat den Effekt, dass durch die Einteilung des Datensatzes in verschiedene Cluster, man den Datensatz in verschiedene kleinere Teilmengen aufteilt, die dann auch einzeln analysiert werden können. Dies ist sehr hilfreich bei Datensätzen die sehr groß sind. Die Aufteilung hat im Gegensatz zur Klassifizierung keine Label-Variable als Ziel, sondern erstellt diese erst als Ergebnis. Im Marketing spricht man auch von der Kundensegmentierung, in den der Kundenstamm in Gruppen mit ähnlichen, verschiedenen Eigenschaften aufgeteilt wird. Clustering wird im Data Mining selten alleine verwendet, sondern dient eher zur Data Preparation für weiterführendes Data Mining. Der Analyst hat zu entscheiden ob die Aufteilung der Cluster wirklich einen Sinn macht oder nicht, da alle Variablen abhängige und unabhängige, gleichermaßen miteinander auf ähnliche Eigenschaften untersucht werden. Dies kann in vielen Fällen zu unbedeutenden oder auch unerklärbaren Gruppierungen führen.

Eine erfolgreiches Clustering wurde 1998 im Auftrag der US Army durchgeführt von der Conell University durchgeführt[8]. Da sich der Körperbau der Soldatinnen sehr unterschied, waren etliche verschiedene Größen vorhanden. Das Ziel war es die Zahl verschiedener Uniformgrößen zu verringern, und trotzdem passende Uniformen für jede Soldatin zu haben. Im Gegensatz zu den herkömmlichen Größen, bei denen die Dimensionen gleich blieben, nur die Gesamtgröße verändert wurde, war das Ergebnis eine Größenunterteilung mit Berücksichtigung verschiedener Körperbautypen. Der Datensatz bestand aus über 100 Messungen von 3000 Soldatinnen. Diese 100 Messungen konnten durch die Segmentierung in ein paar Cluster zusammengefasst werden. Jeder Cluster wurde zu einer einzelnen Kleidungsgröße. Dieses Clustering wurde mit Hilfe der K-Means Technik durchgeführt, der am meisten verwendeten Clustering Technik:

4.2.1 K-Means

Bei dem K-Means-Clustering wird die Anzahl der Clusters von vornhinein festgelegt. Dann werden die Objekte in Form von Vektoren als Punkte in einem Vektorraum dargestellt, deren Dimensionen durch die Variablen gebildet wird. Jedes Objekt wird nun dem nächsten ihm liegenden Clusterzentrumspunkt zugeordnet. Dies wird mehrmals wiederholt, die Clusterzentren jeweils neu berechnet.

4.3 Neuronale Netze

Neuronale Netze können sowohl zur Klassifikation, zum Clustering sowie zur Prognose verwendet werden. Sie wurden dem Menschlichem Gehirn nachempfunden, mit der Eigenschaft sich selbständig zu verbessern, sprich dazu zu lernen. Diese Eigenschaft ist wichtig für das Data Mining und verspricht noch bessere Ergebnissen in Zukunft zu liefern. Der Nachteil dieser Netzte ist der, dass das lernen von Gewichtungen und Regeln der einzelnen Variablen das Data Mining Programm übernimmt (während es die Daten analysiert), und diese Gewichtungen und Regeln nicht ersichtlich sind. Die Ergebnisse die durch diese Technik geliefert werden sind sehr of korrekt, jedoch ist nicht nachvollziehbar warum und wie diese entstanden sind.

Dies führt dazu dass Neuronale Netze am besten dort zur Anwendung kommen sollte folgende Eigenschaften erfüllt sind[9]:

- Der Datensatz ist verständlich.
- Das Ergebnis kann leicht interpretiert werden.
- Genug ähnlich, vergleichbare Fälle (mit In- und Output) sind vorhanden.

Da nicht nachvollzogen werden kann was während des Data Minings vor sich geht, muss es möglich sein zu überprüfen ob sowohl die Eingabe als auch das Ergebnis korrekt ist. Daher macht sich das Data Mining besonders gut bei Automatisierung von Aufgabenstellungen die zwar einfach und verständlich sind, jedoch Zeit und die Analyse von vergleichbaren Fällen benötigen. Ein gängiges Anwendungsfeld ist die Bewertung von Immobilien:

Abbildung in dieser Leseprobe nicht enthalten

[Abb. 7 Neuronales Netz bei der Bewertung von Immobilien.][10]

Der Ablauf des Prozesses ist folgendermaßen9:

- Wahl der In- und Outputs
- Transformierung der Variablen in eine Skala von –1 bis +1
- Installation eines Neuronalen Netzes mit der gewünschten Topologie
- Implementierung eines Test-Datensatzes
- Setzen der Gewichtung um die Fehlerquote möglichst gering zu halten
- Evaluierung des Netzes mit dem Test-Datensatz
- Benutzung des entstandenen Modells für die Bearbeitung unbekannter Fälle

[...]


[1] [LABER, H. 2004]

[2] [FAYYAD, U. 1996]

[3] [CRISP, 2008]

[4] [FAYYAD, U. 1996]

[5] [FAYYAD, U. 1996]

[6] [WITTEN, I. 2001]

[7] [BERRY,M. 2004]

[8] [ASHDOWN, S. 1998]

[9] [BERRY, M. 2004]

[10] [BERRY, M. 2004]

Ende der Leseprobe aus 49 Seiten

Details

Titel
Data Mining - Theorie und praktische Anwendungen
Hochschule
Universität Wien  (Wirtschaftsinformatik)
Veranstaltung
Business Intelligence
Note
1,0
Autor
Jahr
2009
Seiten
49
Katalognummer
V122056
ISBN (eBook)
9783640268863
Dateigröße
3050 KB
Sprache
Deutsch
Anmerkungen
Pros: Presentation: Very good presentation and example(s), High efforts spent into thesis and understanding of topic, Good presentation of complex topic to the audience. General Remarks: Very good overall quality of the presentation and final thesis. Especially the work spent into the different examples.
Schlagworte
Data Mining, WEKA, Rapid Miner, knowledge, discovery, Data, Mining, datenbank, warehousing, wirtschaftsinformatik, e-business, business, intelligence
Arbeit zitieren
Carl-Niklas Wentzel (Autor:in), 2009, Data Mining - Theorie und praktische Anwendungen, München, GRIN Verlag, https://www.grin.com/document/122056

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Data Mining - Theorie und praktische Anwendungen



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden