Der folgende Abhandlung gibt eine umfassende Einführung und Wertung klassischer quantitativer Verfahren, die in der Wirtschaftsprüfung ihre Anwendung finden.
Jede Prüfung ist ein Soll-Ist-Vergleich. Der tautologische Charakter dieser Aussage soll jedoch nicht darüber hinwegtäuschen dass oftmals komplexe Verfahren innerhalb der Wirtschaftsprüfung ihre Anwendung finden. Diese Masterarbeit widmet sich einer bestimmten Gruppe dieser Verfahren, die die Gemeinsamkeit besitzen quantitativer Natur zu sein. Von einer quantitativen Natur einer Methode spricht man in diesem Zusammenhang, wenn bei dieser mathematische und statistische Modelle zur Anwendung kommen.
Dabei werden zwei Ziele verfolgt: Zunächst die klassischen quantitativen Verfahren der Wirtschaftsprüfung grundlegend zu erklären und abzuleiten, was bisher in der Literatur vermieden wurde, und die Möglichkeiten und Grenzen der so abgeleiteten Modelle im Hinblick auf ihre praktische Verwertbarkeit zu beurteilen.
Inhaltsverzeichnis
1 Einführung und methodologische Überlegungen
I Statistische Grundlagen und Überblick
2 Die Erarbeitung der Grundlagen
2.1 Kombinatorische Grundlagen
2.2 Stochastische Grundlagen
2.2.1 Die Definition der Wahrscheinlichkeit
2.2.2 Die Grundbegriffe der Statistik
2.2.3 Verteilungsfunktionen und Wahrscheinlichkeitsdichtefunktionen
2.2.3.1 Diskrete Verteilungsfunktionen
2.2.3.2 Stetige Verteilungsfunktion
2.2.4 Der Erwartungswert und die Varianz von diskreten und stetigen Zufallsvariablen
2.2.5 Spezielle diskrete Verteilungen
2.2.5.1 Die Laplace-Verteilung
2.2.5.2 Die Bernoulli-Verteilung
2.2.5.3 Die Binomiale Verteilung
2.2.5.4 Die Hypergeometrische Verteilung
2.2.5.5 Die Poisson-Verteilung
2.2.6 Stetige Verteilungen: Die Xormalverteilung
2.2.7 Die Stichprobe und ihre Eigenschaften
2.2.7.1 Definition und Eigenschaften einer Stichprobe
2.2.7.2 Erwartungswert und Varianz des Stichprobenmittels
2.2.7.3 Der Begriff der Erwartungstreue
2.3 Stochastische Konvergenz und Konvergenz von Verteilungen
2.3.1 Approximation diskreter Verteilungen durch die Xormalverteilung
3 Überblick über die quantitativen Methoden der Wirtschaftsprüfung
3.1 Die Methoden der induktiven Statistik: Schätzen und Testen
II Schätzverfahren in der Wirtschaftsprüfung
4 Schätzverfahren bei der homograden Fragestellung
4.1 Punktsehätzung
4.2 Intervallsehätzung
4.3 Der Stichprobenumfang
4.3.1 Berechnung des Stichprobenumfang bei der Schätzung des Anteils bei gegebenem absolutem erwarteten Fehler
4.3.2 Berechnung des Stichprobenumfang bei der Schätzung der Anzahl bei gegebenem absolutem erwarteten Fehler
4.3.3 Berechnung des Stichprobenumfang bei der Schätzung des Anteils bei gegebenem relativem erwarteten Fehler
4.3.4 Berechnung des Stichprobenumfang bei der Schätzung des Anzahl bei gegebenem relativem erwarteten Fehler
5 Schätzverfahren bei der heterograden Fragestellung
5.1 Die freie Hochrechnung: einfache Mittelwertsehätzung
5.1.1 Bestimmung des Stichprobenumfangs bei gegebenem relativen Fehler zur Schätzung des Mittelwertes und der Summe
5.1.2 Bestimmung des Stichprobenumfangs bei gegebenem relativen Fehler zur Schätzung des Mittelwertes und der Summe
5.2 Die gebundene Hochrechnung
5.2.1 Verhältnissehätzung
5.2.2 Regressionssehätzung
5.2.3 Differenzensehätzung
6 Komplexe Stichprobenverfahren in der Wirtschaftsprüfung
6.1 Die Schichtung der Stichprobe bei der heterograden Fragestellung ,
6.1.1 Die geschichtete Auswahl
6.1.1.1 Gleichmäßige Aufteilung
6.1.1.2 Proportionale Aufteilung
6.1.1.3 Optimale Aufteilung (Xeyman-Aufteilung)
6.1.1.4 Aufteilung nach den Gesamtkosten
6.1.2 Die Schichtung der Stichprobe bei der homograden Fragestellung
6.1.2.1 Proportionale Aufteilung
6.1.2.2 Optimale Aufteilung
6.2 Weitere komplexe Stichprobenverfahren
III Test verfahren in der Wirtschaftsprüfung
7 Testverfahren bei der homograden Fragestellung
7.0. 1 Der einfache Hypothesentest
7.1 Das sequentielle Testverfahren
8 Test verfahren bei der heterograden Fragestellung
8.0. 1 Der einfache Hypothesentest
8.0. 2 Der Sequentialtest
9 Grenzen der behandelten Verfahren aus Sicht der Wirtschaftsprüfung
9.1 Zielbedingte Grenzen
9.2 Methodenbedingte Grenzen
9.3 Objektbedingte Grenzen
9.4 Vergleich von Zufallsauswahl und bewusster Auswahl zu Prüfungszwecken
10 Schlussbemerkungen
. . . und alles, was man weiß, nicht, bloß rauschen und brausen gehört hat., lässt sich in drei Worten sagen.
Motto des TLP von Wittgenstein
Kapitel 1
Einführung und methodologische Überlegungen
Der folgende Abhandlung gibt eine umfassende Einführung und Wertung klassischer quantitativer Verfahren die in der Wirtschaftsprüfung ihre Anwendung finden. Jede Prüfung ist ein Soll-Ist-Vergleich. Der tautologisehe Charakter dieser Aussage soll jedoch nicht darüber hinwegtäuschen dass oftmals komplexe Verfahren innerhalb der Wirtschaftsprüfung ihre Anwendung finden. Diese Masterarbeit widmet sieh einer bestimmten Gruppe dieser Verfahren, die die Gemeinsamkeit besitzen quantitativer Natur zu sein. Von einer “quantitativen Natur” einer Methode spricht man in diesem Zusammenhang, wenn bei dieser mathematische und statistische Modelle zur Anwendung kommen.
Dabei werden zwei Ziele verfolgt: Zunächst die klassischen quantitativen Verfahren der Wirtschaftsprüfung grundlegend zu erklären und abzuleiten, was bisher in der Literatur vermieden wurde, und die Möglichkeiten und Grenzen der, so abgeleiteten, Modelle im Hinblick auf ihre praktische Verwertbarkeit zu beurteilen. Unter dem Vorwand der Praktikabilität kommt es in der Fachliteratur, als auch in der Ausbildung zum Wirtschaftsprüfer, zu einer Vernachlässigung quantitativer Methoden. Da diese Methoden jedoch regelmäßig ihre Anwendung in der Wirtschaftsprüfung finden, resultiert dies im mangeldem Verständnis über die Möglichkeiten aber auch die Grenzen dieser Verfahren. GIEZEK (2011) spricht in diesem Zusammenhang, von einer “Lücke zwischen den Disziplinen”.[1] Die meisten Wirtschaftsprüfer besitzen geringe Kenntnisse über die Funktionsweise und die Annahmen der statistischen Verfahren die sie in ihrem Beruf benutzen.[2] Die Statistiker hingegen, die bestens mit den Verfahren vertraut sind, wissen jedoch wenig über die eigentlichen Prüfungshandlungen und die Ziele der Wirtschaftsprüfung.[3] Diese Arbeit soll auch dazu beitragen diese Lücke, zumindest teilweise, zu schließen. Sie setzt daher in zweifacher Hinsicht den Anspruch auf Vollständigkeit: Sie soll alle (relevanten) klassischen quantitativen Verfahren erfassen und diese, ansgehend von den Axiomen der Wahrscheinlichkeitsrechnung , ableiten. Ein mathematischer Charakter vieler Abschnitte dieser Arbeit kann daher nicht vermieden werden. Da sieh die Arbeit jedoch einer “Grundlagenforschung" innerhalb der wissenschaftlichen Disziplin der Betriebsprüfungslehre widmet, soll dies auch nicht unnötig versucht werden.
Für unsere Anliegen bedeuteten diese Charakterisierungen der Betriebsprüfungslehre , dass die Beurteilung quantitativer Verfahren der Wirtschaftsprüfung nie ein endgültiges positives Urteil liefern kann. Zwar können unsere Ergebnisse theoretisch geführt werden und auch ihre Richtigkeit an einigen Beispielen postuliert werden, jedoch bleibt es lediglich bei der Postulation derselben. Es ist daher wissenschaftstheoretisch nicht möglich am Ende einer, noch so guten, wissenschaftlichen Auseinandersetzung mit einer Thematik zu sagen, diese würde ihre Ziele gänzlich erfüllen. Im positiven Sinne ist also a priori ein Rahmen gesetzt: es kann lediglich auf den Nutzen einzelner Methoden im Vergleich zu anderen Methoden hingewiesen werden. Im negativen Sinne ist es jedoch Möglich Methoden zu falsifizieren, Prinzipiell sollten man also in der Lage sein eine Methode aufgrund ihrer theoretischen aber auch empirischen Nachteile als “ungenügend" für bestimmte Prüfhandlungen zu titulieren. Dies wird der zentrale methodologische Leitfaden der Arbeit sein.
Während diese Abhandlung zwar das Ziel einer vollständigen Darbietung für die Wirtschaftsprüfung relevanter klassischer statistischer Verfahren verfolgt, kann sie jedoch nicht als Einführung in die Stichprobentheorie als solches verstanden werden, zumal viele Aspekte hier ausgeblendet wurden. Die dem praktischen Anspruch verschiedener Disziplinen entsprechende Entwicklung der statistischen Methoden, macht es selbst für eine rein statistische Abhandlung nicht mehr möglich alle Verfahren darzustellen. Dieses Defizit einer umfassenden Vollständigkeit, stellt für den Wirtschaftsprüfer jedoch einen Vorteil dar, zumal diese Arbeit eine grundlegende Einsicht in jene quantitativen Methoden bietet, die in der Wirtschaftsprüfungspraxis zur Anwendung kommen, von unnötigen Ausschweifungen jedoch verschont bleibt. Dennoch stellen die zu beweisenden Formeln, als auch die Stichprobentheorie als solche, keinen Endzweck dar, sondern ein Instrumentarium zur Bewältigung konkreter Fragestellungen, in diesem Fall jener der Wirtschaftsprüfung.
Die Statistik (und vor allem ihre induktive Teildisziplin) basiert in weiten Teilen auf der Wahrscheinlichkeitsrechnung , die einige ihrer Grundlagen wiederum in kombinatorischen Grundüberlegungen über die Abzählbarkeit hat. Die Untersuchungen beginnen somit mit der Erarbeitung der kombinatorischen und statistischen Grundlagen, ohne die eine Behandlung der Thematik nicht möglich ist. Anschließend werden dann die “klassischen" quantitativen Verfahren des attributiven und variablen Samplings behandelt. Daran schließt eine Untersuchung über die Grenzen eben dieser Verfahren für die Zwecke der Wirtschaftsprüfung an.
Auf die praktische Umsetzung der behandelten Verfahren wird hier jedoch, aus Platzgründen, nicht näher eingegangen. Diese erfolgt meist im Rahmen einfacher statistischer Programme wie R oder, wie üblich in kleineren Kanzleien, EXCEL , Eine Einführung zu den Anwendungen mit EXCEL bietet beispielsweise HÖR- MAXX (1977), Eine Einführung in die Umsetzung der Stiehprobenverfahren in der Programmspraehe R bietet hingegen KAUERMAXX/KUCHEXHOFF (2011) sowie BEHR/PÖTTER (2011)
Teil I Statistische Grundlagen und Überblick
Die Euphorie des um neue Techniken bemühten Theoretikers und die “Formalphobie” des Praktikers stehen sich, nur allzu häufig unversöhnlich gegenüber.
Kapitel 2 Die Erarbeitung der Grundlagen
Seit Mensehengedenken stellt die Mathematik den Anknüpfungspunkt und den Katalysator der Entwieklung versehiedenster Disziplinen der Wissensehaft dar. Aueh die Grundlagenkrise in der ersten Hälfte des 20. Jahrhunderts konnte dem nur wenig entgegensetzten. Es ist daher nieht verwunderlieh, dass mathematische Verfahren und Modelle schon sehr früh ihren Einzug in die Betriebswirtschaftslehre feierten. Sowohl im internen als aueh im externen Rechnungswesen sind diese Verfahren nieht mehr wegzudenken. Bald fanden aueh quantitative Verfahren Einzug in die Betriebsprüfungslehre . Diese Verfahren sind in vielerlei Hinsicht statistische Verfahren die gewisse kombinatorische und statistische Grundkenntnisse voraussetzen.[4] Oftmals kann man in der Fachliteratur zur Wirtschaftsprüfung eine "Tendenz zur Trivialisierung"dieser mathematischen Grundlagen beobachten. Xur wenige Anwender der Verfahren sind mit den theoretischen und praktischen Bedingungen und Grenzen der Anwendung vertraut. Deshalb soll im Folgenden versucht werden dieses Defizit abzubauen.
Der Analyse von Datenmaterial widmet sieh die deskriptive (beschreibende) Statistik. Sie hat sieh die Sammlung von Daten und Extrahierung von Informationen aus diesen zur Aufgabe gemacht. Oftmals kann es jedoch weder möglich, noch ökonomisch zumutbar sein, die Grundgesamtheit in ihrer Gänze derart zu analysieren. Jedoch schon die Erkenntnisse die aus der Analyse eines Teils dieser Grundgesamtheit (der Stichprobe) resultieren, können unter gewissen Bedingungen auf die Grundgesamtheit[5] selbst übertragen werden. Dieser Aufgabe, die natürlich für die Wirtschaftsprüfung essentiell ist, hat sieh die induktive (schließende) Statistik oder einfach Stichprobentheorie gewidmet.[6] Die Verfahren der induktiven Statistik sind somit das natürliche Instrumentarium für Fragestellungen bei denen eine vollkommene Sammlung und Analyse des Datenmaterials nieht möglich oder ökonomisch nicht tragbar wäre. Die Anwendung dieser Verfahren innerhalb der Wirtschaftsprüfung, bei der die Frage nach der Effizienz zumindest genauso relevant erscheint, wie die der Effektivität, ist selbstverständlich.
Die Methoden die innerhalb der induktiven Statistik (bzw, der Stichprobentheorie) zur Anwendung kommen, können grob in Sehätzmethoden und Testmethoden unterteilt werden. Der Unterschied zwischen diesen beiden Gruppen von Verfahren liegt im Resultat, Während das Ergebnis der Sehätzmethoden eine zahlenmäßige Information darstellt, ist das Resultat der Testverfahren eine Entscheidung über die Akzeptanz, Sowohl die Sehätzverfahren, als auch die Testverfahren haben Einzug in den Methodenkanon der Wirtschaftsprüfung gefeiert. Egal ob es sieh bei der behandelten Fragestellung um eine nach dem Anteil (homograder Fall) oder eine nach dem Wert (heterograder Fall) handelt, können sowohl die einen als auch die anderen zur Anwendung kommen.
Die Statistik selbst hat jedoch ihre Wurzeln in der Wahrscheinlichkeitstheorie und der Kombinatorik , Der Aufbau dieser Arbeit wird dem Rechnung tragen. Das erste Unterkapitel behandelt deshalb die kombinatorischen Präliminarien die den statistischen Modellen zugrunde liegen. Daran Anschließend und basierend auf diesen, werden die Wahrseheinliehkeitstheoretisehen und statistischen Modelle behandelt. Dieser pyramidenartige Aufbau des ersten Teils der Arbeit ermöglicht die Erarbeitung eines grundlegenden Verständnisses für die behandelten Verfahren.
2.1 Kombinatorische Grundlagen
Die Kombinatorik ist Grundlage vieler Disziplinen der diskreten Mathematik , Sie bildet auch den Ausgangspunkt bei jeder Beschäftigung mit Wahrscheinlichkeitstheorie und Statistik , Das diesem oftmals wenig oder gar kein Raum geschenkt wird geschieht immer auf Kosten des Verständnisses der später behandelten Disziplinen, Da diese Arbeit jedoch gerade dem grundlegendem Verständnis quantitativer Methoden der Wirtschaftsprüfung verpflichtet ist, muss auch auf die Kombinatorik eingegangen werden, in jenem Ausmaß dass für die hiesigen Anliegen relevant ist.
Diese mathematische Disziplin beschäftigt sieh mit Fragestellungen die danach trachten die Anzahl der Möglichkeiten der Elemente einer Gesamtmenge aufzuzählen, sie anzuordnen und zu gruppieren. Die Antworten auf derartige Fragen bilden die Grundlage der klassischen Definition der Wahrscheinlichkeit,[7]
Xiehtsdestotrotz bildet die Kombinatorik die anfangs intuitivste, letztendlich jedoch eine der schwierigsten Disziplinen der Mathematik, Aber nicht nur der Gegenstand dieser mathematischen Disziplin ist unklar und schwierig zu formulieren, auch sie selbst stellt weiterhin eine Disziplin dar die sieh sowohl einer exakten Definition als auch eines Rahmens entzieht. Jede Einführung in die Kombinatorik beginnt deshalb meist mit anschaulichen Beispielen zu sog, Urnenmodellen , artet jedoch bald in eine Fülle möglicher Ergebnisräume aus. Um derartige unangenehme Überraschungen in dieser Arbeit zu umgehen, werden alle Ergebnisse vorweggenommen und in der Tabelle 2,1, dargestellt. Die Definition zweier Grundbegriffe ist im Vorfeld jedoch unerlässlich. Weitere Begriffe, vor allem die der Wahrscheinlichkeitsrechnung, werden jedoch erst im Kapitel zu den statistische Grundlagen eingeführt,[8]
Definition 1. (Ereignismenge.)[9] Die Ereignismenge eines Zufallsexperiments wird, stets mit Ω gekennzeichnet. Die Potenzmenge[10] von Ω wird als Ereignisraum bezeichnet.[11]
Definition 2. (Ereignis.)[12] '2 Ein Ereignis ist ein Element der Ereignismenge.
Tabelle 2.1: Anzahl der Möglichkeiten bei verschiedenen Ereignisräumen
Abbildung in dieser Leseprobe nicht enthalten
Tabelle 2.1.[13] gibt eine Zusammenstellung der zentralen Ereignisräume der Kombinatorik wieder,[14] Alle anderen, hier nicht erwähnten, Ereignisräume sind lediglich Spezialfälle der obigen vier. Es wird nun anhand einfacher Beispiele versucht die obigen Formeln plausibler zu machen. Die Beispiele sind mengentheoretisch orientiert um den Grundgedanken, mit möglichst wenigen Worten, darzustellen,[15]
Beispiel 1. (Variationen mit Wiederholungen.)w Es soll in diesem Beispiel gezeigt werden, dass die Anzahl der möglichen Ereignisse bei k-Variationen einer Menge der Mächtigkeit n gleich, nk ist.[16] [17] Betrachten man beispielsweise eine Menge M mit zwei Elementen ‘a und b: M = {a, b}, so stellt sich, die Frage wie viele Variationen, d.h. Reihungen, mit genau vier Elementen, aus den Elementen der Menge M konstruiert werden können. Da bei disem Ereignisraum keine Restriktionen bezüglich der Wiederholung von Elementen aufgestellt wurden, ist diese Fragestellung durchaus plausibel. Die gesuchten Variationen können nun allgemein folgendermaßen dargestellt werden: xyzw, wobei [Abbildung in dieser Leseprobe nicht enthalten] keine Bedingung der Konstruktion der Variationen ist. Nun ist es klar, dass x auf zwei Arten gewählt werden kann: entweder a oder b. Genauso verhält es sich, auch mit den anderen Elementen der Variation. Somit, ist die gesamte Anzahl der möglicher Variationen R, 2 · 2 · 2 · 2 = 24. Das Ergebnis entspricht der Formel für Variationen mit Wiederholungen, wobei n = 2 die Mächtigkeit der Menge M darstellt, und k = 4 die Anzahl der Elemente der Variation. Es ist offensichtlich, dass derartige Plausibilitätsüberlegungen keinen formalen Beweis für die obigen Formeln ersetzen können. Für unsere Anliegen reicht, dies jedoch vollkommen aus.
Beispiel 2. (Variationen ohne Wiederholung en.)[18] Die Ausgangsmenge in diesem Beispiel ist die Menge M = {a,b,c,d}. Es sollen nun Variationen konstruieren werden, die keine Wiederholungen der Elemente aus M gestatten. Die Variationen sollen dabei jeweils zwei Elemente enthalten. Das Element x kann somit auf f Arten gewählt werden, das zweite Element y, jedoch, nur auf drei Arten. Dies hängt damit zusammen, dass schon bei der Wahl von x ein Element “verbraucht,” wurde und Wiederholungen nicht, erlaubt, sind. Somit, gibt, es insgesamt, 4 -(4 - 1) Menge n R die die Bedingungen erfüllen. Auch dies ist mit der obigen Formel für Variationen ohne Wiederholungen konsistent.[19]
Beispiel 3. (Kombinationen ohne Wiederholungen.)[20] Die Ausgangsmenge ist wiederum die Menge M = {a,b,c,d}. Es soll nun die Mengen R konstruieren werden, die jedoch, keine Wiederholungen der Elemente aus M gestatten. Im Unterschied zu den bisherigen zwei Beispielen sucht, man hier daher keine. Variationen (oder Reihungen), sondern Mengen. Die Reihenfolge der Elemente wird somit, per Definition, ausgeblendet. Unter der Annahme das jede Menge R zwei Elemente enthalten soll, oder allgemein R = x,y gelten muss, folgt unmittelbar, dass folgende Mengen generiert werden können:
Abbildung in dieser Leseprobe nicht enthalten
Es gibt daher insgesamt [Abbildung in dieser Leseprobe nicht enthalten] solcher Mengen. Auch dies ist konsistent mit unserer obigen Formel, n M und к die Mächtigkeit der zu konstruierenden Mengen R.
Diese drei Beispiele genügen um ein Grundverständnis über die, für die Wirtschaftsprüfung relevanten, Sachverhalte zu gewährleisten. Die letzte Möglichkeit, die der Kombinationen mit Wiederholungen ist etwas komplizierter, für die Zielsetzung dieser Arbeit jedoch wenig fruchtbar,[21]
Das Zufallsexperiment (beispielsweise eine Ziehung von Kugeln) kann jedoch in Stufen erfolgen, Überlegungen zu einem r-Stufigen Gesamtexperiment haben zur Formulierung der sog. Produktregel der Kombinatorik geführt. Dies ist eine der wenigen Grundüberlegungen der Kombinatorik die auch im späteren Verlauf der Arbeit wichtig sein Werden.
Theorem 1. (Produktregel der Kombinatorik)[22] Ein r-stufi,ges Gesamtexperiment besitzt
Abbildung in dieser Leseprobe nicht enthalten
wobei [Abbildung in dieser Leseprobe nicht enthalten] die Anzahl der möglichen Versuchsergebnisse der i-ten Stufe darstellt.
Der Beweis dieses Theorems basiert auf einfachen Überlegungen zur Abzählbarkeit von Ereignissen,[23]
2.2 Stochastische Grundlagen
Aufbauend auf den, nun erarbeiteten, kombinatorischen Grundkenntnissen kann man sieh der Wahrscheinlichkeitsrechnung und der Statistik zuwenden. Diese zwei Teilgebiete der Mathematik werden heute mit dem Begriff Stochastik zusammengefasst, Demnach wäre die Stochastik “die Lehre von den Gesetzmäßigkeiten des Zufalls"[24], Der Begriff selbst stammt aus dem griechischen und stecht im Zusammenhang mit [Abbildung in dieser Leseprobe nicht enthalten] (das Ziel, die Mutmaßung), [Abbildung in dieser Leseprobe nicht enthalten](scharfsinnig im Vermuten) und [Abbildung in dieser Leseprobe nicht enthalten] (etwas erraten, erkennen, beurteilen) und drückt damit das intuitive Verständnis der Wahrscheinlichkeitsrechnung der Statistik aus,[25] Die Wahrscheinlichkeitstheorie hat dabei die Aufgabe zufällige Vorgänge zu beschreiben und Modelle aufzustellen, wobei die Statistik einen Umgang mit dem Zufall und die Schlussfolgerungen aus dem Zufall ermöglichen soll. Somit ist es nicht verwunderlich dass die quantitativen Methoden der Wirtschaftsprüfung auf diesen zwei Disziplinen der Mathematik aufbauen,[26]
Das intuitive Verständnis von der Xatur des Zufalls wird alle folgenden Überlegungen begleiten. Dennoch soll versucht werden sieh der Thematik wissenschaftlich zu nähern. Die Formale Handhabung der Thematik soll jedoch nicht auf eine normative Herangehensweise reduziert werden, sondern stellt vielmehr eine deskriptive Darstellung komplexer Zusammenhänge dar. Den Ausgangspunkt bilden auch hier einige grundlegende Definitionen, Aufbauend auf diesen werden die Eigenschaften einiger wichtiger diskreter Verteilungen analysieren. Im Folgendem werden die meisten diskreten Verteilungen behandelt. Von den stetigen Verteilungen wird lediglich die Xormalverteilung behandelt. Diese ist auf den Umstand zuriiekzuführen, dass viele diskrete Verteilungen durch die Xormalverteilung approximiert werden können
2.2.1 Die Definition der Wahrscheinlichkeit
Es gibt viele Versuche den Begriff der Wahrscheinlichkeit zu definieren. Das Unbehagen einer zu weit reichenden Formalisierung als auch der Verlust der immanenten Intuitivität des Begriffes dabei, bewirkte sicherlich dass die klassische Definition der Wahrscheinlichkeit in den meisten Lehrbüchern beibehalten wurde, Xiehts- destotrotz resultierte der “Drang" zur Axiomatisierung im 20, Jahrhundert, dass weite Teile der Mathematik auf diese Weise fundiert wurden. In diesem Zusammenhang ist, vor allem, der russische Mathematiker Kolmogoroff zu nennen. Er war es der als erster die Wahrseheinliehkeitstheorie axiomatisierte und eine exakte Definition des Wahrseheinliehkeitsbegriffs erlaubte. Im folgendem sollen deshalb drei Definitionen der Wahrscheinlichkeit dargestellt werden,
Definition 3. (Wahrscheinlichkeitsdefinition nach Laplace[27] )[28] Wenn sich ein Ereignis A in m Teilereignisse zerlegen läßt, die alle zu einer vollständigen Gruppe von n paarweise unvereinbaren und gleichmöglichen Ereignissen gehören, so ist die Wahrscheinlichkeit P(A) des Ereignisses A gleich,
Abbildung in dieser Leseprobe nicht enthalten
Über die Anzahl derartiger Ereignisse wurde schon im Kapitel zur Kombinatorik genügend in Erfahrung gebracht. Die zentralen Voraussetzungen die dieser Definition zugrunde liegen sind (1) eine endliche Grundgesamtheit und (2) der Umstand dass alle Elementarergebnisse gleiehwahrseheinlieh sind,[29] Es soll nun versucht werden ein, auf den ersten Blick, schwieriges Beispiel mit, den zur Verfügung stehenden, elementaren, Mitteln zu lösen.
Beispiel 4. Unter der Annahme, dass ein Algorithmus aus 10 mögliehen untereinander unterschiedlichen Buchstaben (unter ihnen auch der Buchstabe “a”) eine zufällige Folge von drei Buchstaben bildet. Wie groß ist die Wahrscheinlichkeit das die nächste Folge den Buchstaben “a” enthält? Dabei ist zu beachten dass ein Buchstabe nur einmal in eine Folge auftre.ten kann.
Lösung. Der letzte Satz besagt, dass Wiederholungen von Buchstaben in den Folgen nicht möglich sind. Da die Reihenfolge der Buchstaben in der Folge offensichtlich irrelevant ist, handelt es sieh hierbei daher um Kombinationen ohne Wiederholungen. Dabei ist die Mächtigkeit der Gesamtmenge der Elemente (hier die Menge der zehn Buchstaben) als n zu k. Insgesamt gibt es also [Abbildung in dieser Leseprobe nicht enthalten] Kombinationen von Folgen (oder Mengen) von Buchstaben, Die Anzahl der Kombinationen die jedoch den Buchstaben “a” enthalten beträgt [Abbildung in dieser Leseprobe nicht enthalten], Gemäß der obigen Definition der Wahrscheinlichkeit ist die Wahrscheinlichkeit einer Menge von Buchstaben die den Buchstaben “a” enthalten gleich [Abbildung in dieser Leseprobe nicht enthalten]
Die obige Definition der Wahrscheinlichkeit ist in der Literatur als Laplaeesehe- Wahrseheinliehkeit bekannt, nach ihrem Begründer Pierre Simon Laplace (1799 - 1827). Ähnlich wie die Laplacesche-Verteilung (siehe Kapitel 2,2,5.1.) geht sie von dem Laplace-Experiment aus als einem Zufallsexperiment in dem jedes Ereignis gleich wahrscheinlich ist. Es ist augenscheinlich, dass in den bisherigen kombinatorischen Überlegungen dies stets Voraussetzung war: da über die Wahrscheinlichkeit nichts näheres gesagt wurde, wurde eine Gleichverteilung dieser, implizit angenommen. Selbsterklärend ist auch, dass eine derartige Definition nichts empirisches an sich hat. Die Wahrscheinlichkeit im obigen Beispiel kann a priori, d.h, vor den eigentlichen Beobachtungen berechnet werden. Eine empirisch-induktive Variante der Definition der Wahrscheinlichkeit findet man hingegen bei Richard von Mises (1883 - 1953). Sie stellt somit eine a posteriori orientierte Wahrscheinlichkeitsdefinition dar,[30]
Definition 4. (Wahrscheinlichkeitsdefinition nach Mises)[31]:il Die Wahrscheinlichkeit P(A) eines Ereignisses A entspricht dem Grenzwert der relativen Häufigkeiten des Auftretens von A in einer Folge von unendlicher und unabhängiger Wiederholungen des betreffenden Zufallexperiments. Somit gilt
Abbildung in dieser Leseprobe nicht enthalten
Schlussendlich weisen jedoch sowohl die Laplassehe als auch die Misesehe Wahr- seheinliehkeitsdefinition erhebliche Defizite auf. Dies schon erwähnte Gleiehvertei- lungsannahme bei Lapiace als auch die Komplexität bei Mises sind Nachteile die den Bedarf nach einer alternativen Wahrseheinliehkeitsdefinition im 20, Jahrhundert steigerten. Im Jahre 1933 stellt der russische Mathematiker Andrei Nikola- jewitsch Kolmogoroff (1903 - 1987) ein axiomatisehes System auf, dass diese Nachteile umgehen sollte. Diese Axiome bilden die Grundlage der modernen Wahrscheinlichkeitstheorie und sind mit dem Großteil der späteren Verfahren in engem Zusammenhang,[32]
Der Begriff der Wahrscheinlichkeit von Kolmogoroff basiert auf mengentheoretischen Überlegungen, Die Potenzmenge (oft vereinfachend das System einer bestimmten Menge genannt[33] ) stellt die Menge aller Teilmengen einer bestimmten Menge dar. Wenn die Grundgesamtheit abzählbar unendlich oder gar stetig ist bietet die Idee der Potenzmenge keinen Ausgangspunkt für die Wahrscheinlichkeitstheorie dar. Zwar sieht sich der Wirtschaftsprüfer stets endlichen Grundgesamtheiten entgegen, jedoch bedienen sich viele Verfahren der Wirtschaftsprüfung auch stetiger Verteilungen wie der Normal Verteilung , Dies vor allem dort, wo durch eine Approximation durch die Nor mal Verteilung der Rechenaufwand erheblich gemindert werden kann.
Um diese Problematik zu umgehen wird in der modernen Wahrscheinlichkeitstheorie der Begriff der o-Algebra eingeführt. Die o-Algebra abstrahiert in ihrer Definition aller möglichen Teilmengen des Ereignisraumes und beschäftigt sich lediglich mit jenen, die für die bestimmte Fragestellung relevant sind, o-Algebren sind somit natürliche Mengensysteme für zufällige Ereignisse,[34]
Definition 5. (o - Algebra.)[35] Sie Ω eine nichtleere Menge. Ein System A von Teilmengen von Ω heißt o-Algebra über Ω, falls [36]
Abbildung in dieser Leseprobe nicht enthalten
Definition 6. (Wahrscheinlichkeitsraum: Die Axiome von Kolmogoroff)[37] Mit dem Wissen über die Eigenschaften einer o-Algebra kann nun auch der Begriff des Wahrscheinlichkeitsraums eingeführt werden. Ist Ω eine Ereignismenge und ist [Abbildung in dieser Leseprobe nicht enthalten] eine σ-Algebra von Ereignissen über Ω, so heißt eine Abbildung [Abbildung in dieser Leseprobe nicht enthalten] ein Wahrscheinlichkeitsmaß, wenn gilt:
- Nichtnegativität: P (A) > 0 für alle[Abbildung in dieser Leseprobe nicht enthalten]
- Normiertheit: P(Ω) = 1
- Additivität:[Abbildung in dieser Leseprobe nicht enthalten] für paarweise unvereinbare Ereignisse [Abbildung in dieser Leseprobe nicht enthalten]
Das Tripel (Ω, A,P) heißt Wahrscheinlichkeitsraum. P(A) heißt Wahrscheinlichkeit des Ereignisses A.
Der Vorteil dieser Wahrscheinlichkeitsdefinition und zugleich auch die Rechtfertigung der Axiomatisierung beruht auf ihrer Vereinbarkeit mit den Wahrscheinlichkeitsdefinitionen nach Laplace und Mises, Aber auch die Möglichkeit viele Sätze der Wahrscheinlichkeitstheorie exakt zu beweisen spricht für diesen Ansatz, Somit besteht kein Widerspruch zwischen den verschiedenen Definitionen der Wahrscheinlichkeit, Abhängig von der Situation wird, zur numerischen Bestimmung von Wahrscheinlichkeiten, entweder die Definition nach Laplace oder nach Mises herangezogen,[38]
2.2.2 Die Grundbegriffe der Statistik
Die Größe bei der ein Zufallsexperiment auftritt wird Zufallsvariable genannt. In diesem Sinne ordnet die Zufallsvariable jedem Experiment einen bestimmten Wert zu. Somit kann definiert werden, dass
Definition 7. (Zufallsvariable.)[39] Jede Abbildung bzw. Funktion, die die Eigenschaft hat, den Elementen der Ereignismenge eine bestimmte Zahl zuzuordnen wird Zufallsvariable genannt. Somit kann gesagt werden, dass X eine Zufallsvariable darstellt, wenn für jede reelle Zahl x die Wahrscheinlichkeit P(X < x) existiert.
Während also die Zufallsvariable die Abbildung der Ereignismenge in die Menge der reellen Zahlen (oder eine Teilmenge dieser) darstellt, so steht die Realisierung der Zufallsvariable für einen konkreten Wert, der im Experiment auftritt. Um die Zufallsvariablen von ihren Realisierungen unterscheiden zu können werden diese (die Realisierungen) mit kleinen, während die Zufallsvariablen mit großen Buchstaben bezeichnet werden.
Definition 8. (Grundgesamtheit und Stichprobe.)[40] Die menge aller möglichen Realisierungen einer Zufallsvariable wird als Grundgesamtheit bezeichnet.
Hingegen stellt die Stichprobe die n-fache Realisierung einer Zufallsvariable dar, wobei n für die Stichprobengröße steht.
Bekanntlich ist, nach einem Resultat Georg Cantors (1845 - 1918) , die Menge der reellen Zahlen iiberabzählbar. Dies bedeutet, dass die “Unendlichkeit" der reellen Zahlen selbst auf einer unendlich langen Liste von Zahlen nicht aus- driiekbar wäre. Dieses Ergebnis, als auch verschiedenste Anwendungserfordernisse der Stochastik, haben dazu geführt die Unterscheidung zwischen diskreten und stetigen Zufallsvariablen einzuführen.
Definition 9. (Diskrete und stetige Zufallsvariablen.)[41] Treten bei der Abbildung der Zufallsvariable lediglich ganze Zahlen auf, so .spricht man von einer diskreten Zufallsvariable. Enthält die Abbildungsmenge jedoch auch reelle Zahlen, so spricht man von stetigen Zufallsvariablen.
Die, hier behandelten, kombinatorischen Grundlagen, sind, gemäß dieser Definition, stets Hilfsmittel im Umgang mit diskreten Zufallsvariablen,
2.2.3 Verteilungsfunktionen und Wahrscheinlichkeitsdichtefunktionen
Nachdem nun die Wahrscheinlichkeit definiert wurde soll der Begriff der Verteilungsfunktion geklärt werden. Zufallsvariablen sind durch ihre Verteilungsfunktionen sowie durch die Dichtefunktionen im stetigen Fall bzw, die Wahrscheinlichkeitsfunktionen im diskreten Fall charakterisiert.
Definition 10. (Verteilungsfunktion)[42] Sei X eine Zufallsvariable über [Abbildung in dieser Leseprobe nicht enthalten]. Dann heißt die Abbildung F : [Abbildung in dieser Leseprobe nicht enthalten] mit
Abbildung in dieser Leseprobe nicht enthalten
Verteilungsfunktion der Zufallsvariable X. Die Eigenschaften einer Verteilungsfunktion F .sind folgende (a,b e R,a < b):
Abbildung in dieser Leseprobe nicht enthalten
Dies stellt die allgemeine Form einer Verteilungsfunktion dar. Es ist anzumerken, dass an dieser Stelle weder eine diskrete noch eine stetige Verteilung angenommen wurde. Diese speziellen Fälle werden gesondert behandelt. Weiter ist aber auch auf den Unterschied zwischen dieser (theoretischen) Verteilungsfunktion und einer empirischen Verteilungsfunktion hinzuweisen. Die hier definierte Verteilungsfunktion ist genau genommen, das Gegenstück zur empirischen Verteilungsfunktion, Die empirische Verteilungsfunktion ist der deskriptiven Statistik zuzuordnen[43] stellt jedoch die kumulierten relativen Häufigkeiten eines bestimmten komparativen Merkmals dar,[44]
2.2.3.1 Diskrete Verteilungsfunktionen
Da man es in der Wirtschaftsprüfung, aber auch generell in den Wirtschaftswissenschaften, regelmäßig mit Wahrscheinlichkeitsverteilungen zu tun hat ist die Betrachtung nur eines einzelnen Zustandes, wie im obigen Beispiel, nicht angebracht. Man muss demnach die Betrachtungen ausweiten. Doch was versteht man überhaupt unter einer Verteilungsfunktion? Während die Wahrscheinlichkeitsfunktion nach der Wahrscheinlichkeit des Eintretens eines bestimmten Ereignisses fragt, stellt die Verteilungsfunktion eine kumulierte Größe dar.
Die allgemeine Definition der Verteilungsfunktion soll nun auch für die Spezialfälle der diskrete und stetige Verteilungen bestimmt werden,
Definition 11. (Wahrscheinlichkeitsfunktion)[45] Eine Zufallsvariable X heißt diskret (oder diskret verteilt), wenn ihr Wertbereich endlich oder abzählbar unendlich ist. Die Wahrscheinlichkeitsfunktion kann ausgedrückt werden als
Abbildung in dieser Leseprobe nicht enthalten
Sie ordnet somit jedem Wert xi aus dem diskreten Wertbereich eine Wahrscheinlichkeit [Abbildung in dieser Leseprobe nicht enthalten]. Da es sie bei der Variable um eine diskrete Zufallsvariable handelt, spricht man in diesem Zusammenhang von einer diskreten Wahrscheinlichkeitsfunktion.
Die diskrete Verteilungsfunktion basiert stellt eine kumulative Funktion dar, die auf der diskreten Wahrscheinlichkeitsfunktion basiert.
Definition 12. (Diskrete Verteilungsfunktion)[46] Für eine diskrete Zufallsvariable, mit einer Wahrscheinlichkeitsfunktion fx(xi), stellt die Funktion
Abbildung in dieser Leseprobe nicht enthalten
die diskrete Verteilungsfunktion dar.
Diese diskrete Verteilungsfunktion erfüllt alle Bedingungen der obigen, allgemeinen, Definition der Verteilungsfunktion.
2.2.3.2 Stetige Verteilungsfunktion
Das was die Wahrseheinlielikeitsfunktion für diskrete Zufallsvariablen darstellt, stellt die Dichtefunktion für stetige Zufallsvariablen dar.
Definition 13. (Dichtefunktion)[47] Die Diehte.funktion stellt die Wahrsehein- lichkeitsfunktion einer stetigen Zufallsvariable. Für die Diehte.funktion gilt
Abbildung in dieser Leseprobe nicht enthalten
Die stetige Verteilungsfunktion basiert auf dieser Dichtefunktion.
Definition 14. (Stetige Verteilungsfunktion.)[48] Für eine stetige Zufallsvariable mit einer Dichtefunktion fx (x) stellt die Funktion
Abbildung in dieser Leseprobe nicht enthalten
die stetige Verteilungsfunktion der Zufallsvariable dar.
Es ist an dieser Stelle auf den mathematischen Zusammenhang zwischen der stetigen Verteilungsfunktion und ihrer Dichtefunktion hinzuweisen. Die Ableitung der Verteilungsfunktion ergibt die Dichtefunktion.
2.2.4 Der Erwartungswert und die Varianz von diskreten und stetigen Zufallsvariablen
Sowohl diskrete als auch stetige Zufallsvariablen werden durch die verschiedenste Kennzahlen charakterisiert, von denen der Erwartungswert und die Varianz einen zentralen Platz einnehmen. Der Erwartungswert wird in der deskriptiven Statistik als Lagemaß, die Varianz dagegen als Streuungmaß bezeichnet. Somit sind diese beiden Kennzahlen Parameter die die Lage und Streuung einer Wahrscheinlichkeitsverteilung angeben. Es gilt nun diese beiden Kennzahlen exakt zu definieren, bevor sie, bei den einzelnen Verteilungen abgeleitet werden. Die Unterscheidung in diskrete und stetige Größen wird naturgemäß auch hier beibehalten,
Definition 15. (Diskreter Erwartung sw ert.)[49] Der Erwartungswert einer diskreten Zufallsvariable ist definiert als
Abbildung in dieser Leseprobe nicht enthalten
Definition 16. (Stetiger Erwartungswert. )[50] Der Erwartungswert einer stetigen Zufallsvariable ist definiert als
Abbildung in dieser Leseprobe nicht enthalten
Um das Ziel einer quantitativen Bestimmung der Genauigkeit eines Schätzwertes zu bestimmen wird die Varianz als Streuungsmaß herangezogen. Ähnlich wie für den Erwartungswert, gilt auch hier:
Definition 17. (Diskrete Varianz.)[51] Die Varianz einer diskreten Zufallsvariable ist definiert als
Abbildung in dieser Leseprobe nicht enthalten
Definition 18. (Stetige Varianz.)[52] Die Varianz einer stetigen Zufallsvariable ist definiert als
Abbildung in dieser Leseprobe nicht enthalten
Der jeweils zweite Ausdruck für die Varianz ist das Resultat des sog. Verschiebungssatzes.[53]
Tabelle 2.2: Allgemeine Darstellung des Erwartungswertes und der Varianz
Abbildung in dieser Leseprobe nicht enthalten
Ein weiteres Streuungsmaß stellt die Standardabweichung dar:
Definition 19. (Standardabweichung) Die Standardabweichung ist als Wurzel der Varianz definiert:
Abbildung in dieser Leseprobe nicht enthalten
Die obigen Größen sind jedoch nichts anderes als Spezialfälle allgemeiner Größen, die Momente genannt werden. Eine Verteilung ist durch verschiedene Momente charakterisiert, wobei der Erwartungswert und die Varianz lediglich zwei der wichtigsten darstellen.[54]
Ausgehend von diesen Definitionen kann auch der Erwartungswert bzw. die Varianz einer linear transformierten dieser Zufallsvariable bestimmt werden. Für den Erwartungswert gilt dann im einfachsten Fall
Abbildung in dieser Leseprobe nicht enthalten
Somit ist der Erwartungswert durch eine Linearität gekennzeichnet.[55]
Doch auch der Zusammenhang zwischen zwei Zufallsvariablen wird bei den bevorstehenden Betrachtungen relevant sein. Dieser Zusammenhang wird durch die Kovarianz und die Korrelation ausgedrückt.
Definition 20. (Kovarianz.) Die Kovarianz stellt die gemeinsame Verteilung zweier quantitativer Merkmale dar und hat somit zweidimensionalen Charakter. Sie ist gegeben mit
Abbildung in dieser Leseprobe nicht enthalten
Im Falle stochastisch unabhängiger Zufallsvariablen beträgt die Kovarianz null, da gilt dass [Abbildung in dieser Leseprobe nicht enthalten][56]
2.2.5 Spezielle diskrete Verteilungen
Basierend auf den Definitionen diskreter Verteilungen und der allgemeinen Form des Erwartungswertes und der Varianz bei diskreten Verteilungen kann nun eine Analyse jener Verteilungen durchgeführt werden, die innerhalb der quantitativen Methoden der Wirtschaftsprüfung, direkt oder indirekt, zur Anwendung kommen. Es soll jedoch dabei bedacht werden, dass die Statistik auch andere Verteilungen kennt, die hier nicht angeführt werden.
2.2.5.1 Die Laplace-Verteilung
Die Laplace- oder Gleiehverteilung stellt die einfachste der diskreten Verteilungen dar.
Definition 21. (Laplace- Verteilung.)[57] Die Verteilung einer Zufallsvariabel X heißt Laplace-Verteilung oder Gleichverteilung auf {1,..., N}, wenn gilt
Abbildung in dieser Leseprobe nicht enthalten
Das vereinfachte Verständnis einer Verteilung, das der Lapiace-Verteilung zugrunde liegt, ist jedoch praktisch, für die Wirtschaftsprüfung, wenig relevant. Theoretisch hingegen bildet die Lapiace-Verteilung die Grundlage für verschiedene andere Verteilungen.
2.2.5.2 Die Bernoulli-Verteilung
Oftmals gibt es jedoch zwei Mögliche Zustände die unterschiedliche Wahrscheinlichkeiten aufweisen. Dies ist, vor allem, bei symmetrischen Glücksspielen der Fall. In diesem Fall spricht man von sog. Bernoulli-Prozessen,[58]
Definition 22. (Bernoullizufallsvariable.)[59] Gehen wir von einer Zufallsvariable Xi mi t i = 1,...,n aus, die durch folgende Eigenschafts charakterisiert ist
Abbildung in dieser Leseprobe nicht enthalten
Diese Zufallsvariable wird als Вernoullizvfallsvariable bezeichnet.
Diese gibt daher lediglich wieder ob für ein i-tes Experiment der erste oder der zweite Zustand stattgefunden hat (Erfolg oder Misserfolg). Theorem
Theorem 2. (Bernoulli- Verteilung)[60] Unter der Annahme, dass der erste Zustand (Erfolg) mit einer Wahrscheinlichkeit von p eintritt, hat die В ernoulli-Verteilung folgende Wahrscheinlichkeitsfunktion:
Abbildung in dieser Leseprobe nicht enthalten
2.2.5.3 Die Binomiale Verteilung
Die Binomialverteilung stellt eine diskrete Wahrscheinlichkeitsverteilung dar die durch einen Bernoulli-Prozess und die Annahme einer Laplace-Wahrscheinlichkeit gekennzeichnet ist. Sie ist somit die Wahrscheinlichkeitsverteilung für ein Alternativmerkmal (A oder nicht-A) mit konstanter Erfolgswahrscheinlichkeit p für A dar.
Theorem 3. (Binomialverteilung.)[61] Für Bernoulli-Prozesse die durch eine Laplace- Wahrscheinlichkeit charakterisiert sind gilt folgende Gleichung bezüglich ihrer Verteilungsfunktion
Abbildung in dieser Leseprobe nicht enthalten
Beweis. Für den Beweis dieses Theorems wird man sieh, ohne Beschränkung der Allgemeinheit, des Urnenmodells bedienen. Das Urnenmodell ermöglicht es die zwei Bedingungen des Theorems, nämlich den Bernoulli-Prozess und die Laplace- Wahrscheinlichkeit, abzubilden. Ausgehend von einer Urne mit insgesamt N Bällen und der Möglichkeit n-mal einen dieser Bälle zu ziehen, ihn aber daraufhin wieder zurückzulegen, kann die obige Verteilungsfunktion konstruiert werden. Weiter wird davon ausgegangen, dass sich unter diesen N Bällen R schwarze Bälle befinden und der Rest weiß ist. Ausgehend von den Überlegungen zu Variationen mit Wiederholungen (siehe Abschnitt 1.1.) kann nun feststellen, dass es insgesamt Nn Möglichkeiten gibt n Bälle aus den N Bällen zu ziehen (ohne Rücksichtnahme auf die Farbe). Will man nun die Wahrscheinlichkeit ausrechnen, dass unter den n gezogenen Bällen genau k schwarze sind, muss zunächst die Anzahl der Möglichen Kombinationen festgehalten werden, die dies gewährleistet. Für die Schwarzen gibt es insgesamt Mk Kombinationen bei der Ziehung und für die weißen [Abbildung in dieser Leseprobe nicht enthalten] insgesamt also [Abbildung in dieser Leseprobe nicht enthalten] Bisher wurde jedoch die Reihenfolge der gezogenen Schwarzen Bälle nicht berücksichtigt. Solcher Kombinationen gibt es insgesamt [Abbildung in dieser Leseprobe nicht enthalten]. Daher ist die Anzahl[Abbildung in dieser Leseprobe nicht enthalten]schwarze Kugeln zu ziehen, mit [Abbildung in dieser Leseprobe nicht enthalten] gegeben. Die Wahrscheinlichkeit beträgt somit[62]
Abbildung in dieser Leseprobe nicht enthalten
Dies stellt die Dichtefunktion (Wahrscheinlichkeitsfunktion) der Binomialverteilung dar. Die Verteilungsfunktion ist dann entsprechend
Abbildung in dieser Leseprobe nicht enthalten
Korollar 1. (Erwartungswert der Binomialverteilung. )[63] Der Erwartungswert der Binomialverteilung beträgt
Abbildung in dieser Leseprobe nicht enthalten
Beweis. Aufgrund der allgemein gültigen Additivität des Erwartungswertes (Siehe ()) erhält man
Abbildung in dieser Leseprobe nicht enthalten
Ähnlich kann auch die Varianz der Binomialverteilung bestimmt werden
Korollar 2. (Varianz der Binomalverteilung.)[64] Die Varianz der Binomialverteilung beträgt
Abbildung in dieser Leseprobe nicht enthalten
Beweis. Unter der Annahme dass
Abbildung in dieser Leseprobe nicht enthalten
ist, und der Eigenschaften der Varianz in Hinsicht auf eine lineare Transformation einer Zufallsvariable (Siehe Gleichung ()) ergibt sieh
Abbildung in dieser Leseprobe nicht enthalten
[...]
[1] Vgl. GIEZEK (2011): S. 1.
[2] Zu rechtlichen und wirtschaftlichen Rahmenbedingungen der .Jahresabschlussprüfung siehe B Ľ RT L / Ľ G G Ľ R / S Λ M Ľ R (2010) sowie LĽFFSON (1991)
[3] Siehe dazu ARK1N (1958): S. 66.
[4] Dio Anwendungsvoraussetzungen dieser Verfahren werden aueh unter dem Gesichtspunkt der Möglichkeiten der Objektivierung des .Jahreserfolges von BAĽTGĽ (1970) behandelt. Ihre Anwendung ist demnach nieht nur auf die eigentliche .lahresabschlussprüfung begrenzt.
[5] Eine exakte Definition dieser Begriffe erfolgt in späteren Kapiteln.
[6] Vgl. GĽNSGHĽL/BĽGKĽR (2005): S. 3.
[7] Siehe dazu Kapitol 2.2.1.
[8] Eine mengentheoretische Einführung in din Kombinatorik bintnt auch FLACHSMĽYĽR (1969)
[9] Vgl. SCHWARZE (2001): S. 15.
[10] Einn Potonzmongo ist din Mongo allor Toilmongon oinor bostimmton Mongo. Nohmon wir boispiolswoiso dio Menge A = {1, 2}. Diese Menge to insgesamt 4 Teilmengen: 2} sowie 0. Die Potenzmenge von A ist dann die Menge P = {{1}, {2}, {1, 2}, 0}. Nichtsdestotrotz ist hier festzuhalten, dass die Potenzmenge, für unsere Anliegen ein sehr weiter Begriff ist. Wenn wir im Folgendem von der Ereignismenge sprechen, so werden wir dies stets unter Berücksichtigung bestimmter Restriktionen tun. Beispielsweise werden wir verlangen, dass die Elemente der Potenzmenge, Mengen sind, die selbst eine bestimmte Anzahl der Elemente enthalten.
[11] Vgl. KOHN (2005): S. 198.
[12] Vgl. SCHWARZE (2001): S. 14.
[13] Variationen ohne Wiederholungen sind mit der Formel (n)k gegeben. Dabei gilt [Abbildung in dieser Leseprobe nicht enthalten] Weitere binomiale Identitäten können in verschiedenen Lehrbüchern der diskreten Mathematik gefunden werden. Jemand der sein Lebenswerk gerade den binamialen Identitäten gewidmet hat ist Henry W. GOULD. Sein Buch “Combinatorial Identities” aus dem Jahre 1972 ist heute ein Standardwerk zu dieser Thematik. Die von ihm, in den letzten Jahrzehnten zusammengestellten Manuskripte und Vorlesungen werden kontinuierliche auf seiner Website publiziert.
[14] Vgl. BOSCH (1996): S. 67.
[15] Zu weiteren Beispielen siehe BOSCH (1996): S. 601Г.
[16] Die Berechnung der Fakultät n! kann bei größeren Zahlen u.U. problematisch sein. Eine gute Approximation stellt dabei die Stirling-Formel dar [Abbildung in dieser Leseprobe nicht enthalten]
[17] Die Mächtigkeit einer Menge stellt die Anzahl ihrer Elemente dar.
[18] Vgl. KRĽYSZ1G (1998): S. 102.
[19] Aufmerksame Leser werden schon vielleicht bemerkt haben, dass die Mächtigkeit der Menge M stets größer sein muss als die Mächtigkeit der Menge R. Weiter ist noch anzumerken, dass nVariationen einer Menge der Machtigkeit n Permutationcn genannt. werden. Vgl. dazu KREYSZIG (1998): S. 99.
[20] Vgl. KRĽYSZ1G (1998): S. 102. Es ist jedoch an dieser Stelle anzumerken, dass KRĽYSZ1G (1998) den terminologischen Unterschied zwischen Variationen und Kombinationen nicht berücksichtigt, sondern stets von Kombinationen spricht, die entweder die Anordnung berücksichtigen oder eben nicht, ln dieser Abhandlung wird der Unterschied jedoch beibehalten.
[21] Zur Vertiefung siehe FLACHSMEYER (1969)
[22] Vgl. BOSCH (1996): S. 61.
[23] Siehe dazu BOSCH (1996): S. 61.
[24] Vgl. MĽ1NTRUP/SCHÄFFLĽR (2005): S. VH.
[25] Vgl. GEMOLL/VRETSKA (2006)
[26] Vgl. GEORGll (2007): S. lit
[27] Oieser (klassische) Begriff der Wahrscheinlichkeit wird auf den französischen Mathematiker Pierre Simon Laplace (1749 - 1827) zurückgeführt. Er resultierte aus seinen Untersuchungen über die Chancen beim Glücksspiel. Siehe dazu BOSCH (1996): S. 59.
[28] Vgl. KOHN (2005): S. 205., UHLMANN (1982): S. 19.
[29] Vgl. BOSCH (1996): S. 59.
[30] Vgl. KOHN (2005): s. 205ÍT.
[31] Vgl. SCHWARZE (2001): S. 24.
[32] Vgl. KOHN (2005): s. 207ff
[33] Vgl. KLENKE (2008): S. 1.
[34] Vgl. KLENKE (2008): S. 2. Vertiefend zu a-Algebren siehe KLEXKE (2008) sowie MEINTRUP/SCHAFFLER (2005)
[35] LEHN (2006): S. 26.
[36] Im folgendem steht AC für die Menge der komplementären Ereignise zu A. Es wird auch einleuchtend sein, dass die von uns schon im Abschnitt zur Kombinatorik erwähnte Potenzmenge eine σ-Algebra darstellt, da sie alle drei Bedingungen erfüllt.
[37] Vgl. LEHN (2006): S. 28., KRĽYSZ1G (1998): S. 60., SCHWARZE (2001): S. 20.
[38] Vlg. KOHN (2005): S. 208.
[39] Vlg. SACHS (2002): S. 89., KREYSZ1G (1998): S. 72.
[40] Vlg. SACHS (2002): S. 89., MENDENTHALL/OTT/SCHAEFFLER (1971): S. 201., THOMPSON (1984): S.
[41] Vlg. SACHS (2002): S. 89., SCHWARZE (2001): S. 46.
[42] LEHN (2006): S. 40.
[43] Vgl. GENSCHEL/BECKER (2005): S.
[44] Vgl. KOHN (2005): S. 45.
[45] LEHN (2006): S. 41.; Vgl. KOHN (2005): S. 203.
[46] Vgl. KOHN (2005): S. 231., V1NCZE (1971): S. 311., KREYSZ1G (1998): S. 78.
[47] Vgl. GENSCHEL/BECKER (2005): S. 14.
[48] Vgl. GENSCHEL/BECKER (2005): S. 24., V1NCZĽ (1971): S. 321., KREYSZ1G (1998): S. 80.
[49] Vgl. KREYSZIG (1998): S. 85., SCHWARZE (2001): S. 57.
[50] Vgl. KREYSZIG (1998): S. 85., SCHWARZE (2001): S. 57.
[51] Vgl. KREYSZIG (1998): S. 87., SCHWARZE (2001): S. 60.
[52] Vgl. KREYSZIG (1998): S. 88., SCHWARZE (2001): S. 60.
[53] Vgl. GENSCHEL/BECKER (2005):S. 27.
[54] Siehe dazu KREYSZ1G (1998): S. 92. sowie UHLMANN (1982): S. 26.
[55] Vgl. GENSCHEL/BECKER (2005): S. 25.
[56] Vgl. GENSCHEL/BECKER (2005): S. 33.
[57] DEHL1NG/НAUPT (2003): S. 68.
[58] Vgl. KOHN (2005): S. 285.
[59] Vgl. KREYSZ1G (1998): S. 108f.
[60] Vgl. GENSCUEL/BECKER (2005): S. 38.
[61] Vgl. GĽNSCHĽL/BĽCKĽR (2005): S. 39., V1NCZĽ (1971): S. 60., KRĽYSZ1G (1998): S. 109.
[62] Der bewiesene Ausdruck für die Binomialverteilung erinnert in vielerlei Einsicht an die Binomialentwieklung [Abbildung in dieser Leseprobe nicht enthalten] die von Isaac Barrow und Jakob Bernoulli bewiesen wurde. Aufgrund dieses Umstandes erhielt die Binomialverteilung ihren Namen. Siehe Dazu SACHS (2000):S. 268. sowie W1RTH (?): S. 46.
[63] Vgl. SCHWARZE (1975): S. 43. Einen äußerst eleganten und kurzen Beweis, der jedoch über die sog. Momenterzeugende Funktion getätigt wird, liefert hingegen KRĽYSZ1G (1998): S. 111.
[64] Vgl. UHLMANN (1982): S. 37.
-
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X.