Warum darf man aus Schulnoten keinen Mittelwert bilden? Weil man Schulnoten nicht addieren darf! Fehler wie diese (und weit schlimmere) passieren dauernd, auch im öffentlichen Dienst. Überall werden statistische Grundkenntnisse benötigt. Meistens aus Unwissenheit, häufig aber auch bewusst, werden Daten falsch aufbereitet, missverständlich dargestellt und falsch interpretiert. Dabei kann „Statistik“ durchaus etwas Positives sein. Mittels statistischer Methoden können wir aus einer unübersehbaren Datenflut, gut vor- und aufbereitet, Informationen herausfiltern, Kennzahlen definieren und Grafiken erstellen, die uns auf einen Blick relevante Informationen vermitteln.
Ich finde es beeindruckend, dass aus Milliarden Datensätzen, wie sie bei Facebook, Google oder der NSA (um nur einige zu nennen) vorliegen, blitzschnell aussagefähige Zahlen über den „User“ gewonnen werden. Deskriptive Statistik hat das Potential, jedem verständlich zu machen, wie das geht. Dieses Buch richtet sich an alle Menschen und ist für alle Menschen geeignet, die mindestens die vier Grundrechenarten beherrschen. Sollten, wie an wenigen Stellen gefordert, tatsächlich mal mehr Kenntnisse für das Verständnis (nicht für die Anwendung!) des Stoffes benötigt werden, kann diese Stelle getrost übersprungen werden.
Inhaltsverzeichnis
1. Wozu Statistik?
2. Statistik und empirische Untersuchung
3. Merkmalsart und Skalentyp
4. Arithmetischer Mittelwert
5. Kennwerte der Streuung
6. Klassenbildung
7. Der Median
8. Quantil
9. Modalwert
10. Das geometrische Mittel
11. Grafische Darstellung von Daten
12. Häufigkeitsverteilung
3. Einschub: Konzentrationsmessung und Lorenzkurve
14. Mehrdimensionale Häufigkeitsverteilung
15. Lineare Regression
16. Bestimmung der Regressionskonstanten a und b
17. Kontrollrechnung für den Korrelationskoeffizienten r:
18. Bestimmtheitsmaß: Standardfehler
19. Zeitreihenanalyse und Trendermittlung
20. Gleitender Durchschnitt
21. Trendfunktion
22. Einfache Prognosetechniken
23. Trendextrapolation auf Basis eines Zeitreihenmodells
24. Die Welt ist nicht nur metrisch
25. Der Rangkorrelationskoeffizient R nach Spearman
26. Nominale Werte
27. Kontingenzkoeffizient nach Pearson
28. Der Signifikanztest
29. Die Benford-Analyse und der Chi-Quadrat-Test.
30. Bestimmung des Stichprobenumfangs
31. Der Bericht
32. Anhang
Zielsetzung & Themen
Die Arbeit bietet eine fundierte Einführung in die deskriptive Statistik für den öffentlichen Dienst, wobei das primäre Ziel darin besteht, statistische Methoden zur Analyse und Interpretation von Datenmengen in der Verwaltung praxisnah zu vermitteln, um Fehlinterpretationen zu vermeiden und fundierte Entscheidungsprozesse zu unterstützen.
- Grundlagen der statistischen Datenerhebung und empirischen Untersuchung
- Methoden der deskriptiven Statistik wie Mittelwertberechnung, Streuungsmaße und Klassenbildung
- Visualisierung von Daten und kritische Bewertung statistischer Grafiken
- Anwendung statistischer Verfahren bei Zeitreihenanalysen und Prognosemethoden
- Konzepte zur Konzentrationsmessung und zum Testen statistischer Zusammenhänge
Auszug aus dem Buch
1. Wozu Statistik?
Kenntnisse aus dem Bereich der Statistik können sowohl für private als auch für berufliche Zwecke nützlich sein.
Im privaten Bereich werden Kenntnisse der Statistik häufig für das wirtschaftliche Handeln genutzt, zum Beispiel bei der Vermögensbildung.
Im beruflichen Bereich können statistische Erhebungen und Analysen für Planungs- und Entscheidungsprozesse genutzt werden, zum Beispiel ebenfalls im Rahmen des wirtschaftlichen Handelns oder der Arbeitsorganisation.
Ein weiterer bekannter Anwendungsbereich ist die politische Meinungsbildung.
Zusammenfassung der Kapitel
1. Wozu Statistik?: Einführung in die Bedeutung und Anwendungsfelder statistischer Grundkenntnisse im privaten sowie beruflichen Kontext.
2. Statistik und empirische Untersuchung: Erläuterung der planmäßigen Vorgehensweise bei empirischen Untersuchungen in der öffentlichen Verwaltung.
3. Merkmalsart und Skalentyp: Klassifizierung von Merkmalen und deren Skalenniveaus als Voraussetzung für korrekte statistische Berechnungen.
4. Arithmetischer Mittelwert: Definition und Berechnung des gebräuchlichsten Lagemaßes sowie dessen Bedeutung bei der Analyse großer Datenmengen.
5. Kennwerte der Streuung: Vorstellung von Spannweite, Varianz und Standardabweichung zur Charakterisierung der Verteilungsbreite von Datenreihen.
6. Klassenbildung: Methodik zur Reduzierung komplexer Datenmengen durch Zusammenfassung von Werten zu Klassen für eine bessere Übersicht.
7. Der Median: Einführung des Zentralwertes als alternatives Lagemaß, das eine geordnete Reihe in zwei Hälften teilt.
8. Quantil: Erläuterung von Quartilen und Dezilen zur Zerlegung von Datenreihen in gleiche Anteile.
9. Modalwert: Definition des häufigsten Wertes in einer Verteilung, insbesondere für nicht-metrische Daten.
10. Das geometrische Mittel: Beschreibung des korrekten Mittels für Zuwachsraten und zeitlich aufeinanderfolgende Wachstumsverläufe.
11. Grafische Darstellung von Daten: Übersicht über verschiedene Diagrammtypen und deren Eignung für unterschiedliche Datenskalen.
12. Häufigkeitsverteilung: Darstellung von Häufigkeiten und Einführung der kumulierten Summenhäufigkeit zur Analyse von Verteilungen.
3. Einschub: Konzentrationsmessung und Lorenzkurve: Mathematische Verfahren zur Bestimmung der Konzentration von Werten auf einzelne Merkmalsträger.
14. Mehrdimensionale Häufigkeitsverteilung: Grundlagen der Untersuchung von Zusammenhängen zwischen zwei oder mehr Merkmalen.
15. Lineare Regression: Einführung in die Methode zur Ermittlung linearer Abhängigkeiten zwischen Variablen.
16. Bestimmung der Regressionskonstanten a und b: Herleitung und Berechnung der optimalen Regressionsgeraden.
17. Kontrollrechnung für den Korrelationskoeffizienten r:: Validierung des linearen Zusammenhangs durch Berechnung des Korrelationskoeffizienten nach Pearson-Bravais.
18. Bestimmtheitsmaß: Standardfehler: Interpretation der Modellgüte einer linearen Regression durch das Bestimmtheitsmaß.
19. Zeitreihenanalyse und Trendermittlung: Analyse von Entwicklungstendenzen in zeitabhängigen Beobachtungswerten.
20. Gleitender Durchschnitt: Glättung von Zeitreihen zur Identifikation langfristiger Trends durch Mittelwertbildung.
21. Trendfunktion: Anwendung von Trendmodellen bei nichtlinearen Verläufen oder periodischen Schwankungen.
22. Einfache Prognosetechniken: Vorstellung naiver Methoden zur Vorhersage zukünftiger Merkmalswerte.
Schlüsselwörter
Statistik, Deskriptive Statistik, Empirische Untersuchung, Mittelwert, Standardabweichung, Korrelation, Lineare Regression, Zeitreihenanalyse, Trendermittlung, Signifikanztest, Häufigkeitsverteilung, Skalenniveau, Konzentrationsmessung, Prognoseverfahren, Datenauswertung
Häufig gestellte Fragen
Worum geht es in diesem Buch grundsätzlich?
Das Buch vermittelt Grundlagen der beschreibenden Statistik, speziell zugeschnitten auf die Anforderungen in der öffentlichen Verwaltung und Behördenpraxis.
Welche zentralen Themenfelder werden abgedeckt?
Die Themen umfassen statistische Kennwerte, die grafische Aufbereitung von Daten, Korrelations- und Regressionsanalysen sowie Prognosetechniken.
Was ist das primäre Ziel der Arbeit?
Ziel ist es, den Leser zu befähigen, Daten professionell zu erheben, aufzubereiten und statistisch korrekt zu interpretieren, um Fehlentscheidungen im beruflichen Alltag zu vermeiden.
Welche wissenschaftliche Methode wird primär verwendet?
Das Werk stützt sich auf mathematisch-statistische Standardverfahren, die durch die DIN-Normen für statistische Begriffe und Methoden untermauert werden.
Was wird im Hauptteil behandelt?
Der Hauptteil behandelt die gängigen Kennzahlen der Lage und Streuung, Methoden zur grafischen Darstellung sowie fortgeschrittene Verfahren wie die lineare Regression und Zeitreihenanalysen.
Welche Schlüsselwörter charakterisieren das Werk?
Wichtige Begriffe sind deskriptive Statistik, Korrelationsanalyse, Regressionsrechnung, Zeitreihenanalyse und empirische Datenverarbeitung.
Wie unterscheidet sich die Konzentrationsmessung von anderen statistischen Verfahren?
Die Konzentrationsmessung untersucht gezielt die Verteilung von Werten auf Merkmalsträger mittels Lorenzkurven, was besonders bei Haushalts- oder Umsatzdaten relevant ist.
Was ist das Besondere an der Benford-Analyse?
Sie nutzt die logarithmische Verteilung der Ziffern in Rechnungsbeträgen als Werkzeug zur Identifikation von Unregelmäßigkeiten oder potenziellem Betrug.
Warum wird so stark auf DIN-Normen verwiesen?
Die Verweise auf DIN-Normen dienen dazu, in der Verwaltungspraxis verbindliche und einheitliche Begriffsdefinitionen zu verwenden und Missverständnisse auszuschließen.
Welchen praktischen Nutzen bietet der Abschnitt zur Bestimmung des Stichprobenumfangs?
Er liefert präzise Formeln, um bei Prüfungen in der Verwaltung die wissenschaftlich korrekte Größe einer Stichprobe zu berechnen, damit diese als repräsentativ anerkannt werden kann.
- Arbeit zitieren
- Dr. Uwe Sliwczuk (Autor:in), 2014, Deskriptive (beschreibende) Statistik im öffentlichen Dienst, München, GRIN Verlag, https://www.grin.com/document/270088